Progreso de generación no autorregresiva
2022
[NAACL] Una referencia no es suficiente: destilación diversa con selección de referencias para traducción no autorregresiva
[ICML] Transformador acíclico dirigido para traducción automática no autorregresiva
[arXiv] Una encuesta sobre generación no autorregresiva para traducción automática neuronal y más
[ACL] latent-GLAT: Echando un vistazo a las variables latentes para la generación de texto paralelo
[ACL] Un plan de estudios de aprendizaje por imitación para la edición de textos con modelos no autorregresivos
[ACL] Redistribución de palabras de baja frecuencia: aprovechar al máximo los datos monolingües en traducción no autorregresiva
[EMNLP] Traducción automática neuronal no autorregresiva: un llamado a la claridad
[EMNLP] Optimización de granularidad múltiple para traducción no autorregresiva
2021
- [AAAI] Traducción no autorregresiva con predicción por capas y supervisión profunda
- [arXiv] MvSR-NAT: Regularización de subconjuntos de vistas múltiples para traducción automática no autorregresiva
- [CL] Entrenamiento a nivel de secuencia para traducción automática neuronal no autorregresiva
- [EMNLP] Explorando la transferencia de estilos de texto no autorregresivo
- [EMNLP] Aprender a reescribir para traducción automática neuronal no autorregresiva
- [EMNLP] AligNART: traducción automática neuronal no autorregresiva mediante el aprendizaje conjunto de la estimación de la alineación y la traducción
- [ICML] Entropía cruzada independiente del orden para traducción automática no autorregresiva
- [ICML] BANG: Uniendo la generación autorregresiva y no autorregresiva con preentrenamiento a gran escala
- [ACL] Rejuvenecimiento de palabras de baja frecuencia: aprovechar al máximo los datos paralelos en traducción no autorregresiva
- [ACL] Capacitación progresiva de granularidad múltiple para traducción no autorregresiva
- [ACL] GLAT: Transformador de mirada para traducción automática neuronal no autorregresiva
- [ACL] Decodificación paralela restringida por POS para generación no autorregresiva
- [Hallazgos de ACL] Traducción automática neuronal totalmente no autorregresiva: trucos del oficio
- [ACL SRW] Uso de codificación posicional con reconocimiento de longitud perturbada para traducción automática neuronal no autorregresiva
- [EACL] Enriquecimiento de un transformador no autorregresivo con estructuras sintácticas y semánticas para la traducción automática neuronal
- [EACL] Generación de texto no autorregresivo con modelos de lenguaje previamente entrenados
- [NAACL] Análisis semántico no autorregresivo para diálogos compositivos orientados a tareas
- [NAACL] Traducción no autorregresiva mediante códigos categóricos de destino de aprendizaje
- [NAACL] Aprendizaje multitarea con codificador compartido para traducción automática no autorregresiva
- [ICLR] Comprensión y mejora de la elección léxica en traducción no autorregresiva
- [AAAI] Guía para la decodificación de traducción automática neuronal no autorregresiva con información de reordenamiento
2020
- [arXiv] Escuche y complete las letras que faltan: transformador no autorregresivo para el reconocimiento de voz
- [arXiv] Generación de diálogo neuronal no autorregresivo
- [arXiv] Mejora de la fluidez de la traducción automática no autorregresiva
- [arXiv] El entrenamiento semiautoregresivo mejora la decodificación de predicción de máscaras
- [arXiv] LAVA NAT: un modelo de traducción no autorregresivo con decodificación visual y atención al vocabulario
- [IJCAI] Aprendizaje curricular a nivel de tarea para la traducción automática neuronal no autorregresiva
- [COLING] Atención cruzada contextual para traducción no autorregresiva
- [COLING] Infusión de información secuencial en un modelo de traducción enmascarada condicional con mecanismo de autorrevisión
- [NeurIPS] Incorporación de BERT en la decodificación de secuencias paralelas con adaptadores
- [EMNLP] Traducción automática no autorregresiva con alineaciones latentes
- [EMNLP] Refinamiento iterativo en el espacio continuo para la traducción automática neuronal no autorregresiva
- [EMNLP] SlotRefine: un modelo rápido no autorregresivo para la detección de intenciones conjuntas y el llenado de espacios
- [INTERSPEECH] Máscara CTC: ASR de extremo a extremo no autorregresivo con CTC y predicción de máscara
- [INTERSPEECH] Modelado basado en inserción para el reconocimiento automático de voz de un extremo a otro
- [ACL] Aprender a recuperarse de errores multimodales para la traducción automática neuronal no autorregresiva
- [ACL] Modelo secuencia a secuencia enmascarado conjuntamente para traducción automática neuronal no autorregresiva
- [ACL] MOTOR: Redes de inferencia basadas en energía para traducción automática no autorregresiva
- [ACL] Mejora de la traducción automática neuronal no autorregresiva con datos monolingües
- [ACL] Un estudio de un modelo no autorregresivo para la generación de secuencias
- [ICML] Conversión de texto a voz neuronal no autorregresiva
- [ICML] Entropía cruzada alineada para traducción automática no autorregresiva
- [ICML] Traducción automática paralela con transformador de contexto desenredado
- [ICML] Imputer: modelado de secuencias mediante imputación y programación dinámica
- [ICML] Un enfoque EM para la generación de secuencias condicionales no autorregresivas
- [ICLR] Comprensión de la destilación del conocimiento en la traducción automática no autorregresiva
- [AAAI] Minimización de la diferencia de bolsa de ngramas para la traducción automática neuronal no autorregresiva
- [AAAI] Traducción automática neuronal no autorregresiva de variable latente con inferencia determinista utilizando un delta posterior
- [AAAI] Ajuste fino mediante aprendizaje curricular para la traducción automática neuronal no autorregresiva
2019
- [arXiv] Transformador no autorregresivo por aprendizaje de posición
- [NeurIPS] Transformador Levenshtein
- [NeurIPS] Decodificación estructurada rápida para modelos de secuencia
- [NeurIPS] FastSpeech: Texto a voz rápido, robusto y controlable
- [EMNLP] Predicción de máscara: decodificación paralela de modelos de lenguaje enmascarado condicional
- [EMNLP] FlowSeq: Generación de secuencia condicional no autorregresiva con flujo generativo
- [EMNLP] Capacitación basada en sugerencias para traducción automática no autorregresiva
- [ACL] Recuperación de información secuencial para traducción automática neuronal no autorregresiva
- [ACL] Aprendizaje por imitación para traducción automática neuronal no autorregresiva
- [AAAI] Traducción automática no autorregresiva con regularización auxiliar
- [AAAI] Traducción automática neuronal no autorregresiva con entrada de decodificador mejorada
2018
- [ICML] Decodificación rápida en modelos de secuencia utilizando variables latentes discretas
- [EMNLP] Modelado de secuencia neuronal determinista no autorregresivo mediante refinamiento iterativo
- [EMNLP] Traducción automática neuronal no autorregresiva de extremo a extremo con clasificación temporal conexionista
- [ICLR] Traducción automática neuronal no autorregresiva
Contacto
Changhan Wang ([email protected])