Español
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
Mapa del sitio completo
Últimas actualizaciones
Inicio
Código fuente
Programación relacionada
Recursos para crear sitios web
Tutorial de diseño web
Tutorial de programación en red
Inicio
>
Relacionado con la programación
>
Código Fuente de IA
papernote
Código Fuente de IA
1.0.0
Descargar
sistema de recomendación
2018.07
Modelo de incrustación profunda de contenido-usuario para recomendación musical [arxiv] [nota]
2017.08
Red profunda y cruzada para predicciones de clics en anuncios [arxiv] [nota]
2017.03
DeepFM: una red neuronal basada en una máquina de factorización para la predicción del CTR [arxiv] [nota]
2016.09
Redes neuronales profundas para recomendaciones de YouTube [investigación] [nota]
2016.06
Aprendizaje amplio y profundo para sistemas de recomendación [arxiv] [nota]
2010.12
Máquinas de factorización [ieee] [nota]
1998.08
Comentarios implícitos para sistemas de recomendación [aaai] [nota]
Control de calidad y generación de texto
Control de calidad: basado en recuperación (tabla de clasificación):
2018.12
El diseño y la implementación de XiaoIce, un chatbot social empático [arxiv] [nota]
2018.06
Modelado de conversaciones de varios turnos con agregación de expresiones profundas [arxiv] [nota]
2017.11
Una encuesta sobre sistemas de diálogo: avances recientes y nuevas fronteras [arxiv] [nota]
2017.05
IRGAN [arxiv] [nota]
2017.02
Coincidencia bilateral de múltiples perspectivas para oraciones en lenguaje natural [arxiv] [nota]
2016.12
Una nueva arquitectura para la selección de respuestas de múltiples turnos en chatbots basados en recuperación [arxiv] [nota]
2016.11
Un modelo de comparación agregado para hacer coincidir secuencias de texto [arxiv] [nota]
2016.10
Estimación contrastiva de ruido para la selección de respuestas con redes neuronales profundas [semanticscholar] [nota]
2016.02
Redes de agrupación atentas [arxiv] [nota]
2015.11
Modelos de aprendizaje profundo basados en LSTM para selección de respuestas no factoides [arxiv] [nota]
chatbot: basado en generación:
2018.04
Chatear más: profundizar y ampliar el tema del chat a través de un modelo profundo [documento] [nota]
2018.01
De Eliza a XiaoIce: desafíos y oportunidades con los chatbots sociales [arxiv] [traducción]
2017.11
Generación de respuesta neuronal con vocabularios dinámicos [arxiv] [nota]
2017.11
MOJITALK: Generando respuestas emocionales [arxiv] [nota]
2017.07
AliMe Chat: un motor de chatbot basado en secuencia para secuenciar y reclasificar [aclweb] [nota]
2017.04
Generación de conversaciones emocionales con memoria interna y externa [arxiv] [nota]
2017.03
Aprendizaje de la diversidad a nivel de discurso para modelos de diálogo neuronal utilizando CVAE [arxiv] [nota]
2017.02
Un modelo de conversación neuronal basado en el conocimiento [arxiv] [nota]
2017.01
Generación de respuestas largas y diversas con modelos de conversación neuronal [arxiv] [nota]
2016.07
Secuencia hacia atrás y hacia adelante [arxiv] [nota]
2016.06
Generación de respuesta neuronal consciente del tema [arxiv] [nota]
2016.06
Aprendizaje por refuerzo profundo para la generación de diálogo [arxiv] [nota]
2015.03
Máquina de respuesta neuronal para conversaciones de texto breve [arxiv] [nota]
generación de texto
2018.06
Generación de tema a ensayo con redes neuronales [artículo] [nota]
2016.10
Generación de poesía china con red neuronal basada en planificación [arxiv] [nota]
2016.03
Incorporación del mecanismo de copia en el aprendizaje secuencia a secuencia [arxiv] [nota]
clasificación
2019.05
¿Cómo ajustar BERT para la clasificación de texto? [arxiv] [nota]
2018.06
SGM: Modelo de generación de secuencia para clasificación de etiquetas múltiples [arxiv] [nota]
2018.04
ETH-DS3Lab en SemEval-2018 Tarea 7: ... Clasificación y extracción de relaciones [arxiv] [nota]
2017.08
Uso de millones de apariciones de emoji para aprender representaciones de cualquier dominio para... [aclweb] [nota]
2016.xx
LSTM basado en atención para clasificación de sentimiento a nivel de aspecto [aclweb] [nota]
2016.07
Bolsa de trucos para una clasificación de texto eficiente (fasttext) [arxiv] [nota]
2016.06
Redes de atención jerárquica para clasificación de documentos [aclweb] [nota]
2016.03
Clasificación secuencial de texto corto con redes neuronales recurrentes y convolucionales [arxiv] [nota]
2015.07
Clasificación de relaciones mediante clasificación con redes neuronales convolucionales [aclweb] [nota]
2014.08
Redes neuronales convolucionales para clasificación de oraciones [aclweb] [nota]
2012.07
Líneas de base y bigramas: clasificación de temas y sentimientos simples y buenos [aclweb] [nota]
incrustar
incrustación de palabras:
2018.12
Sobre la dimensionalidad de la incrustación de palabras [arxiv] [nota]
2018.09
Descubriendo información lingüística divergente en incrustaciones de palabras... [arxiv] [nota]
2018.02
Representaciones de palabras contextualizadas profundas (ELMo) [arxiv] [nota]
2017.12
Avances en representaciones de palabras distribuidas previas al entrenamiento [arxiv] [nota]
2017.07
Un enfoque simple para aprender incrustaciones de palabras polisémicas [arxiv] [nota]
2017.07
Imitación de incrustaciones de Word utilizando RNN de subpalabras [arxiv] [nota]
2016.07
Enriquecimiento de vectores de palabras con información de subpalabras [arxiv] [nota]
2013.01
Regularidades lingüísticas en representaciones de palabras en espacio continuo [aclweb] [nota]
incrustación de oraciones:
2018.09
Modelado de secuencias semisupervisadas con entrenamiento Cross-View [arxiv] [nota]
2018.05
Baseline necesita más atención: sobre modelos simples basados en incrustación de palabras y... [arxiv] [nota]
2018.04
Aprendizaje de similitud textual semántica a partir de conversaciones [arxiv] [nota]
2018.03
Un marco eficiente para aprender representaciones de oraciones [arxiv] [nota]
2017.05
Aprendizaje supervisado de representaciones de oraciones universales a partir de datos NLI [arxiv] [nota]
2016.11
Una línea de base simple pero difícil de superar para incrustaciones de oraciones [openreview] [nota]
2016.05
Aprendizaje de inferencia del lenguaje natural utilizando el modelo LSTM bidireccional y atención interna [arxiv] [nota]
2016.02
Aprendizaje de representaciones distribuidas de oraciones a partir de datos sin etiquetar [arxiv] [nota]
2015.12
Aprendizaje de similitud semántica para textos muy cortos [arxiv] [nota]
2015.11
Orden: incrustaciones de imágenes y lenguaje [arxiv] [nota]
2014.05
Representaciones distribuidas de oraciones y documentos [arxiv] [nota]
incrustación de usuario:
2017.05
Cuantificación de la salud mental a partir de las redes sociales con incrustaciones de usuarios neuronales [arxiv] [nota]
regularización y normalización
2018.08
La deserción es un caso especial de la regla delta estocástica: aprendizaje profundo más rápido y preciso [arxiv] [nota]
2018.05
¿Cómo ayuda la normalización por lotes a la optimización? (No, no se trata de un cambio de covariable interno) [arxiv] [nota]
2017.02
Renormalización por lotes [arxiv] [nota]
2016.07
Normalización de capas [arxiv] [nota]
2016.05
Métodos de entrenamiento contradictorio para la clasificación de textos semisupervisados [arxiv] [nota]
2016.03
Normalización de lotes recurrentes [arxiv] [nota]
2016.02
Normalización de peso [arxiv] [nota]
2015.10
Redes neuronales recurrentes normalizadas por lotes [arxiv] [nota]
2015.07
Suavizado distributivo con entrenamiento de confrontación virtual [arxiv] [nota]
2015.02
Normalización por lotes [arxiv] [nota]
2014.12
Explicación y aprovechamiento de ejemplos contradictorios [arxiv] [nota]
2013.06
Regularización de redes neuronales mediante DropConnect [artículo] [nota]
2009.06
Aprendizaje curricular [collobert] [nota]
red neuronal
2019.01
¿Es hora de hacer buches? Comparación de funciones de activación de aprendizaje profundo entre tareas de PNL [arxiv] [nota]
2018.03
Abandono escolar objetivo [revisión abierta] [nota]
2017.11
Modelos de lenguaje atento [aclweb] [nota]
2017.04
Modelos de lenguaje de redes neuronales recurrentes de memoria a largo plazo bidireccional contextual [aclweb] [nota]
2017.04
Aprender a generar reseñas y descubrir sentimientos [arxiv] [nota]
2017.04
Explorando la dispersión en redes neuronales recurrentes [arxiv] [nota]
2017.02
Las redes profundas no aprenden mediante la memorización [revisión abierta] [nota]
2017.01
Modelado de lenguaje de contexto de diálogo con redes neuronales recurrentes [arxiv] [nota]
2016.11
Vinculación de vectores de palabras y clasificadores de palabras: un marco de pérdida para el modelado del lenguaje [arxiv] [nota]
2016.11
Comprender el aprendizaje profundo requiere repensar la generalización [arxiv] [nota]
2016.09
Descripción general de los algoritmos de optimización del descenso de gradiente [arxiv] [nota]
2016.09
Modelos de mezcla Pointer Sentinel [arxiv] [nota]
2016.08
Uso de la incrustación de resultados para mejorar los modelos de lenguaje [arxiv] [nota]
2016.03
Abandono recurrente sin pérdida de memoria [arxiv] [nota]
2015.11
Agregar ruido degradado mejora el aprendizaje para redes muy profundas [arxiv] [nota]
2015.11
Aprendizaje secuencial semisupervisado [arxiv] [nota]
2015.06
Visualización y comprensión de redes recurrentes [arxiv] [nota]
2015.xx
Cálculo sobre gráficos computacionales: retropropagación [github] [nota]
2014.12
Evaluación empírica de redes neuronales recurrentes cerradas en modelado de secuencias [arxiv] [nota]
2014.09
Regularización de redes neuronales recurrentes [arxiv] [nota]
2013.12
Cómo construir redes neuronales recurrentes profundas [arxiv] [nota]
2010.xx
Comprender la dificultad de entrenar redes neuronales profundas [imag] [nota]
2010.xx
Codificadores automáticos con eliminación de ruido apilados [documento] [nota]
2008.07
Una arquitectura unificada para el procesamiento del lenguaje natural [collobert] [nota]
transformador
2019.09
ALBERT: Un BERT ligero para el aprendizaje autosupervisado de representaciones lingüísticas [arxiv] [nota]
2019.07
RoBERTa: un enfoque de preentrenamiento BERT sólidamente optimizado [arxiv] [nota]
2019.04
ERNIE: Representación mejorada a través de la integración del conocimiento [arxiv] [nota]
2018.10
BERT: Entrenamiento previo de transformadores bidireccionales profundos para la comprensión del lenguaje [arxiv] [nota]
2018.06
Mejora de la comprensión del lenguaje mediante capacitación previa generativa [amazonaws] [nota]
2018.03
Codificador universal de oraciones [arxiv] [nota]
2017.06
Todo lo que necesitas es atención [arxiv] [nota]
secuencia a secuencia
2018.07
Aumento de datos de secuencia a secuencia para la comprensión del lenguaje de diálogo [arxiv] [traducción]
2018.07
Fluency Boost, aprendizaje e inferencia para la corrección de errores gramaticales neuronales [aclweb] [nota]
2017.04
Vaya al grano: resumen con redes generadoras de punteros [arxiv] [nota]
2017.04
Aprendiendo a leer texto [arxiv] [nota]
2015.06
Redes de punteros [arxiv] [nota]
2015.06
Vectores de omisión de pensamiento [arxiv] [nota]
2014.12
Gramática como lengua extranjera [arxiv] [nota]
2014.12
Sobre el uso de un vocabulario objetivo muy amplio para la traducción automática neuronal [arxiv] [nota]
2014.09
Traducción automática neuronal por Jontly Learning to Align and Translate [arxiv] [nota]
2014.09
Aprendizaje secuencia a secuencial con redes neuronales [arxiv] [nota]
multitarea
2019.01
Redes neuronales profundas multitarea para la comprensión del lenguaje natural [arxiv] [nota]
2018.08
Modelado de relaciones entre tareas en el aprendizaje multitarea con una combinación de expertos de puertas múltiples [acm] [nota]
2016.12
Superar el olvido catastrófico en redes neuronales [arxiv] [nota]
reconocimiento de nombre de entidad
2018.05
NER chino usando Lattice LSTM [arxiv] [nota]
2018.03
Clasificación de tipos de entidades neuronales detalladas con pérdida consciente de la jerarquía [arxiv] [nota]
2017.04
Aprendizaje multitarea semisupervisado para etiquetado de secuencias [arxiv] [nota]
2016.03
Arquitecturas neuronales para el reconocimiento de entidades nombradas [arxiv] [nota]
2016.xx
Arquitecturas neuronales para clasificación detallada de tipos de entidades [aclweb] [nota]
aprendizaje auto supervisado
2020.02
Un marco simple para el aprendizaje contrastivo de representaciones visuales [arxiv] [nota]
otros
2017.06
Un módulo de red neuronal simple para razonamiento relacional [arxiv] [nota]
2016.11
Palabra o caracteres, selección detallada para comprensión lectora [arxiv] [nota]
2016.08
Traducción automática neuronal de palabras raras con unidades de subpalabras (BPE) [aclweb] [nota]
2005.08
Personalización de la búsqueda mediante análisis automatizado de intereses y actividades [microsoft] [nota]
Expandir
Información adicional
Versión
1.0.0
Tipo
Código Fuente de IA
Fecha de actualización
2024-12-14
tamaño
3.27MB
Proviene de
Github
Aplicaciones relacionadas
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
Recomendado para ti
chat.petals.dev
Otro código fuente
1.0.0
GPT Prompt Templates
Otro código fuente
1.0.0
GPTyped
Otro código fuente
GPTyped 1.0.5
node telegram bot api
Código Fuente de IA
v0.50.0
typebot.io
Código Fuente de IA
v3.1.2
python wechaty getting started
Código Fuente de IA
1.0.0
waymo open dataset
Otro código fuente
December 2023 Update
termwind
Otras categorias
v2.3.0
wp functions
Otras categorias
1.0.0
Información relacionada
Todo
Método de implementación de Java para cambiar la consulta de archivos
2025-02-02
Carga del archivo de aplicación HTML5
2025-02-02
Use la clase DateFormat en programación Java Multi -Threaded
2025-02-02
Guía Excel en ASPX
2025-02-01
El método de instalar OpenJDK de Java en el sistema CentOS
2025-02-01
Use PhoneGap para reproducir el método de implementación de audio
2025-02-01