2018.07 Modèle d'intégration approfondie des utilisateurs de contenu pour la recommandation musicale [arxiv] [note]
2017.08 Réseau profond et croisé pour les prévisions de clics publicitaires [arxiv] [note]
2017.03 DeepFM : un réseau neuronal basé sur une machine de factorisation pour la prédiction du CTR [arxiv] [note]
2016.09 Réseaux de neurones profonds pour les recommandations YouTube [recherche] [note]
2016.06 Apprentissage étendu et approfondi pour les systèmes de recommandation [arxiv] [note]
2010.12 Machines de factorisation [ieee] [note]
1998.08 Rétroaction implicite pour les systèmes de recommandation [aaai] [note]
Assurance qualité et génération de texte
Assurance qualité : basée sur la récupération (classement) :
2018.12 La conception et la mise en œuvre de XiaoIce, un chatbot social empathique [arxiv] [note]
2018.06 Modélisation d'une conversation à plusieurs tours avec une agrégation profonde d'énoncés [arxiv] [note]
2017.11 Une enquête sur les systèmes de dialogue : avancées récentes et nouvelles frontières [arxiv] [note]
2017.05 IRGAN [arxiv] [note]
2017.02 Correspondance bilatérale multiperspective pour les phrases en langage naturel [arxiv] [note]
2016.12 Une nouvelle architecture pour la sélection de réponses multi-tours dans les chatbots basés sur la récupération [arxiv] [note]
2016.11 Un modèle de comparaison-agrégation pour faire correspondre les séquences de texte [arxiv] [note]
2016.10 Estimation du contraste de bruit pour la sélection de réponses avec des réseaux de neurones profonds [semanticsscholar] [note]
2016.02 Réseaux de mutualisation attentifs [arxiv] [note]
2015.11 Modèles d'apprentissage profond basés sur LSTM pour la sélection de réponses non factuelles [arxiv] [note]
chatbot : basé sur la génération :
2018.04 Chat More : Approfondir et élargir le sujet de discussion via un modèle approfondi [article] [note]
2018.01 D'Eliza à XiaoIce : défis et opportunités avec les chatbots sociaux [arxiv] [translation]
2017.11 Génération de réponses neuronales avec des vocabulaires dynamiques [arxiv] [note]
2017.11 MOJITALK : Générer des réponses émotionnelles [arxiv] [note]
2017.07 AliMe Chat : un moteur de chatbot basé sur la séquence et le reclassement [aclweb] [note]
2017.04 Génération de conversations émotionnelles avec la mémoire interne et externe [arxiv] [note]
2017.03 Apprentissage de la diversité au niveau du discours pour les modèles de dialogue neuronal utilisant CVAE [arxiv] [note]
2017.02 Un modèle de conversation neuronale fondé sur les connaissances [arxiv] [note]
2017.01 Générer des réponses longues et diverses avec des modèles de conversation neuronale [arxiv] [note]
2016.07 Séquence vers l'arrière et la séquence avant [arxiv] [note]
2016.06 Génération de réponse neuronale sensible au sujet [arxiv] [note]
2016.06 Apprentissage par renforcement profond pour la génération de dialogue [arxiv] [note]
2015.03 Machine à réponse neuronale pour les conversations en texte court [arxiv] [note]
génération de texte
2018.06 Génération de sujet à essai avec des réseaux de neurones [article] [note]
2016.10 Génération de poésie chinoise avec un réseau neuronal basé sur la planification [arxiv] [note]
2016.03 Intégration d'un mécanisme de copie dans l'apprentissage séquence à séquence [arxiv] [note]
classification
2019.05 Comment affiner BERT pour la classification de texte ? [arxiv] [note]
2018.06 SGM : Modèle de génération de séquences pour la classification multi-étiquettes [arxiv] [note]
2018.04 ETH-DS3Lab à SemEval-2018 Tâche 7 : ... Classification et extraction des relations [arxiv] [note]
2017.08 Utilisation de millions d'occurrences d'emoji pour apprendre les représentations de n'importe quel domaine pour... [aclweb] [note]
2016.xx LSTM basé sur l'attention pour la classification des sentiments au niveau des aspects [aclweb] [note]
2016.07 Sac d'astuces pour une classification efficace des textes (fasttext) [arxiv] [note]
2016.06 Réseaux d'attention hiérarchique pour la classification des documents [aclweb] [note]
2016.03 Classification séquentielle de textes courts avec réseaux de neurones récurrents et convolutifs [arxiv] [note]
2015.07 Classification des relations par classement avec les réseaux de neurones convolutifs [aclweb] [note]
2014.08 Réseaux de neurones convolutifs pour la classification des phrases [aclweb] [note]
2012.07 Bases de référence et bigrammes : classification simple et bonne des sentiments et des sujets [aclweb] [note]
intégration
intégration de mots :
2018.12 Sur la dimensionnalité de l'intégration de mots [arxiv] [note]
2018.09 Découverte d'informations linguistiques divergentes dans les incorporations de mots... [arxiv] [note]
2018.02 Représentations de mots contextualisées en profondeur (ELMo) [arxiv] [note]
2017.12 Avancées dans les représentations de mots distribuées avant la formation [arxiv] [note]
2017.07 Une approche simple pour apprendre les intégrations de mots polysémiques [arxiv] [note]
2017.07 Imiter les intégrations de mots à l'aide de RNN de sous-mots [arxiv] [note]
2016.07 Enrichissement des vecteurs de mots avec des informations sur les sous-mots [arxiv] [note]
2013.01 Régularités linguistiques dans les représentations de mots en espace continu [aclweb] [note]
intégration de phrases :
2018.09 Modélisation de séquences semi-supervisée avec formation Cross-View [arxiv] [note]
2018.05 La ligne de base a besoin de plus d'amour : sur des modèles simples basés sur l'intégration de mots et... [arxiv] [note]
2018.04 Apprendre la similarité textuelle sémantique à partir de conversations [arxiv] [note]
2018.03 Un cadre efficace pour l'apprentissage des représentations de phrases [arxiv] [note]
2017.05 Apprentissage supervisé des représentations de phrases universelles à partir des données NLI [arxiv] [note]
2016.11 Une ligne de base simple mais difficile à battre pour les incorporations de phrases [openreview] [note]
2016.05 Apprentissage de l'inférence du langage naturel à l'aide du modèle LSTM bidirectionnel et de l'attention intérieure [arxiv] [note]
2016.02 Apprentissage des représentations distribuées de phrases à partir de données non étiquetées [arxiv] [note]
2015.12 Apprentissage de la similarité sémantique pour des textes très courts [arxiv] [note]
2015.11 Ordre-incorporation d'images et de langage [arxiv] [note]
2014.05 Représentations distribuées de phrases et de documents [arxiv] [note]
intégration de l'utilisateur :
2017.05 Quantification de la santé mentale à partir des médias sociaux avec l'intégration d'utilisateurs neuronaux [arxiv] [note]
régularisation et normalisation
2018.08 L'abandon est un cas particulier de la règle delta stochastique : un apprentissage en profondeur plus rapide et plus précis [arxiv] [note]
2018.05 Comment la normalisation par lots contribue-t-elle à l'optimisation ? (Non, il ne s'agit pas d'un changement de covariable interne) [arxiv] [note]
2017.02 Renormalisation par lots [arxiv] [note]
2016.07 Normalisation des couches [arxiv] [note]
2016.05 Méthodes de formation contradictoires pour la classification de texte semi-supervisée [arxiv] [note]
2016.03 Normalisation récurrente des lots [arxiv] [note]
2016.02 Normalisation du poids [arxiv] [note]
2015.10 Réseaux de neurones récurrents normalisés par lots [arxiv] [note]
2015.07 Lissage distributionnel avec formation contradictoire virtuelle [arxiv] [note]
2015.02 Normalisation par lots [arxiv] [note]
2014.12 Expliquer et exploiter les exemples contradictoires [arxiv] [note]
2013.06 Régularisation des réseaux de neurones à l'aide de DropConnect [article] [note]