Empfehlungssystem
- 2018.07 Deep Content-User Embedding Model für Musikempfehlung [arxiv] [note]
- 2017.08 Deep & Cross Network für Ad-Click-Prognosen [arxiv] [note]
- 2017.03 DeepFM: Ein auf Faktorisierungsmaschinen basierendes neuronales Netzwerk für die CTR-Vorhersage [arxiv] [Anmerkung]
- 2016.09 Deep Neural Networks für YouTube-Empfehlungen [Forschung] [Anmerkung]
- 2016.06 Wide & Deep Learning für Empfehlungssysteme [arxiv] [note]
- 2010.12 Faktorisierungsmaschinen [ieee] [Anmerkung]
- 1998.08 Implizites Feedback für Empfehlungssysteme [aaai] [note]
Qualitätssicherung und Textgenerierung
QA: abrufbasiert (Bestenliste):
- 2018.12 Das Design und die Implementierung von XiaoIce, einem einfühlsamen sozialen Chatbot [arxiv] [note]
- 2018.06 Modellierung von Multi-Turn-Konversationen mit Deep Utterance Aggregation [arxiv] [note]
- 2017.11 Eine Umfrage zu Dialogsystemen: Jüngste Fortschritte und neue Grenzen [arxiv] [Anmerkung]
- 2017.05 IRGAN [arxiv] [Anmerkung]
- 2017.02 Bilaterales multiperspektivisches Matching für Sätze in natürlicher Sprache [arxiv] [note]
- 2016.12 Eine neue Architektur für die Multi-Turn-Antwortauswahl in abrufbasierten Chatbots [arxiv] [note]
- 2016.11 Ein Compare-Aggregate-Modell zum Abgleichen von Textsequenzen [arxiv] [note]
- 2016.10 Rauschkontrastive Schätzung zur Antwortauswahl mit tiefen neuronalen Netzen [semanticscholar] [note]
- 2016.02 Aufmerksame Pooling-Netzwerke [arxiv] [Anmerkung]
- 2015.11 LSTM-basierte Deep-Learning-Modelle für die Auswahl nicht-faktoider Antworten [arxiv] [note]
Chatbot: generationsbasiert:
- 2018.04 Chat More: Vertiefung und Erweiterung des Chat-Themas durch ein Deep Model [Papier] [Anmerkung]
- 2018.01 Von Eliza bis XiaoIce: Herausforderungen und Chancen mit sozialen Chatbots [arxiv] [Übersetzung]
- 2017.11 Erzeugung neuronaler Reaktionen mit dynamischen Vokabularien [arxiv] [note]
- 2017.11 MOJITALK: Emotionale Reaktionen erzeugen [arxiv] [note]
- 2017.07 AliMe Chat: Eine Sequence-to-Sequence- und Rerank-basierte Chatbot-Engine [aclweb] [Anmerkung]
- 2017.04 Emotionale Konversationsgenerierung mit internem und externem Gedächtnis [arxiv] [note]
- 2017.03 Lernen der Diversität auf Diskursebene für neuronale Dialogmodelle mithilfe von CVAE [arxiv] [note]
- 2017.02 Ein wissensbasiertes neuronales Konversationsmodell [arxiv] [note]
- 2017.01 Generieren langer und vielfältiger Antworten mit neuronalen Konversationsmodellen [arxiv] [note]
- 2016.07 Sequenz zur Rückwärts- und Vorwärtssequenz [arxiv] [Anmerkung]
- 2016.06 Themenbewusste Erzeugung neuronaler Reaktionen [arxiv] [Anmerkung]
- 2016.06 Deep Reinforcement Learning zur Dialoggenerierung [arxiv] [note]
- 2015.03 Neuronale Reaktionsmaschine für Kurztextkonversationen [arxiv] [note]
Textgenerierung
- 2018.06 Topic-to-Essay-Generierung mit neuronalen Netzen [Papier] [Anmerkung]
- 2016.10 Chinesische Poesiegenerierung mit planungsbasiertem neuronalen Netzwerk [arxiv] [Anmerkung]
- 2016.03 Einbeziehung des Kopiermechanismus in das Sequenz-zu-Sequenz-Lernen [arxiv] [Anmerkung]
Einstufung
- 2019.05 Wie kann BERT für die Textklassifizierung optimiert werden? [arxiv] [Anmerkung]
- 2018.06 SGM: Sequenzgenerierungsmodell für die Multi-Label-Klassifizierung [arxiv] [Anmerkung]
- 2018.04 ETH-DS3Lab bei SemEval-2018 Aufgabe 7: ... Beziehungsklassifizierung und -extraktion [arxiv] [Anmerkung]
- 2017.08 Verwendung von Millionen von Emoji-Vorkommen, um Darstellungen beliebiger Domänen für ... [aclweb] [note] zu lernen
- 2016.xx Aufmerksamkeitsbasiertes LSTM für die Stimmungsklassifizierung auf Aspektebene [aclweb] [Anmerkung]
- 2016.07 Trickkiste für eine effiziente Textklassifizierung (fasttext) [arxiv] [note]
- 2016.06 Hierarchische Aufmerksamkeitsnetzwerke für die Dokumentenklassifizierung [aclweb] [Anmerkung]
- 2016.03 Sequentielle Kurztextklassifizierung mit rekurrenten und Faltungs-Neuronalen Netzen [arxiv] [note]
- 2015.07 Klassifizierung von Beziehungen durch Ranking mit Faltungs-Neuronalen Netzen [aclweb] [Anmerkung]
- 2014.08 Faltungs-Neuronale Netze zur Satzklassifizierung [aclweb] [Anmerkung]
- 2012.07 Basislinien und Bigramme: Einfache, gute Stimmung und Themenklassifizierung [aclweb] [Anmerkung]
Einbettung
Worteinbettung:
- 2018.12 Zur Dimensionalität der Worteinbettung [arxiv] [note]
- 2018.09 Aufdeckung abweichender sprachlicher Informationen in Worteinbettungen ... [arxiv] [note]
- 2018.02 Tief kontextualisierte Wortdarstellungen (ELMo) [arxiv] [Anmerkung]
- 2017.12 Fortschritte bei verteilten Wortdarstellungen vor dem Training [arxiv] [Anmerkung]
- 2017.07 Ein einfacher Ansatz zum Erlernen polysemischer Worteinbettungen [arxiv] [note]
- 2017.07 Nachahmung von Worteinbettungen mithilfe von Subword-RNNs [arxiv] [note]
- 2016.07 Anreicherung von Wortvektoren mit Unterwortinformationen [arxiv] [note]
- 2013.01 Sprachliche Regelmäßigkeiten in Wortdarstellungen im kontinuierlichen Raum [aclweb] [Anmerkung]
Satzeinbettung:
- 2018.09 Halbüberwachte Sequenzmodellierung mit Cross-View-Training [arxiv] [note]
- 2018.05 Baseline braucht mehr Liebe: Über einfache, auf Worteinbettung basierende Modelle und ... [arxiv] [note]
- 2018.04 Semantische Textähnlichkeit aus Gesprächen lernen [arxiv] [note]
- 2018.03 Ein effizienter Rahmen zum Erlernen von Satzdarstellungen [arxiv] [note]
- 2017.05 Überwachtes Lernen universeller Satzdarstellungen aus NLI-Daten [arxiv] [note]
- 2016.11 Eine einfache, aber schwer zu übertreffende Basis für Satzeinbettungen [openreview] [note]
- 2016.05 Erlernen der Inferenz natürlicher Sprache mithilfe des bidirektionalen LSTM-Modells und der inneren Aufmerksamkeit [arxiv] [Anmerkung]
- 2016.02 Lernen verteilter Darstellungen von Sätzen aus unbeschrifteten Daten [arxiv] [note]
- 2015.12 Semantische Ähnlichkeit für sehr kurze Texte lernen [arxiv] [note]
- 2015.11 Ordnungseinbettungen von Bildern und Sprache [arxiv] [Anmerkung]
- 2014.05 Verteilte Darstellungen von Sätzen und Dokumenten [arxiv] [note]
Benutzereinbettung:
- 2017.05 Quantifizierung der psychischen Gesundheit aus sozialen Medien mit neuronalen Benutzereinbettungen [arxiv] [note]
Regularisierung und Normalisierung
- 2018.08 Dropout ist ein Sonderfall der stochastischen Delta-Regel: schnelleres und genaueres Deep Learning [arxiv] [note]
- 2018.05 Wie hilft die Batch-Normalisierung bei der Optimierung? (Nein, es geht nicht um interne Kovariatenverschiebung) [arxiv] [Anmerkung]
- 2017.02 Batch-Renormalisierung [arxiv] [Anmerkung]
- 2016.07 Ebenennormalisierung [arxiv] [Anmerkung]
- 2016.05 Kontroverse Trainingsmethoden für die halbüberwachte Textklassifizierung [arxiv] [Anmerkung]
- 2016.03 Wiederkehrende Batch-Normalisierung [arxiv] [Anmerkung]
- 2016.02 Gewichtsnormalisierung [arxiv] [Anmerkung]
- 2015.10 Batch-normalisierte wiederkehrende neuronale Netze [arxiv] [Anmerkung]
- 2015.07 Verteilungsglättung mit Virtual Adversarial Training [arxiv] [note]
- 2015.02 Batch-Normalisierung [arxiv] [Anmerkung]
- 2014.12 Widersprüchliche Beispiele erklären und nutzen [arxiv] [note]
- 2013.06 Regularisierung neuronaler Netze mit DropConnect [Papier] [Anmerkung]
- 2009.06 Lehrplan Lernen [collobert] [Anmerkung]
neuronales Netzwerk
- 2019.01 Ist es Zeit zum Swishen? Vergleich von Deep-Learning-Aktivierungsfunktionen über NLP-Aufgaben hinweg [arxiv] [note]
- 2018.03 Targeted Dropout [openreview] [note]
- 2017.11 Aufmerksame Sprachmodelle [aclweb] [Anmerkung]
- 2017.04 Kontextuelles bidirektionales Lang-Kurzzeitgedächtnis Wiederkehrende neuronale Netzwerk-Sprachmodelle [aclweb] [Anmerkung]
- 2017.04 Lernen, Bewertungen zu generieren und Stimmungen zu entdecken [arxiv] [note]
- 2017.04 Erforschung der Sparsität in wiederkehrenden neuronalen Netzen [arxiv] [note]
- 2017.02 Deep Nets lernen nicht durch Auswendiglernen [openreview] [note]
- 2017.01 Modellierung von Dialogkontextsprachen mit wiederkehrenden neuronalen Netzen [arxiv] [note]
- 2016.11 Verknüpfung von Wortvektoren und Wortklassifikatoren: Ein Verlustrahmen für die Sprachmodellierung [arxiv] [Anmerkung]
- 2016.11 Um Deep Learning zu verstehen, muss die Generalisierung neu überdacht werden [arxiv] [note]
- 2016.09 Ein Überblick über Algorithmen zur Gradientenabstiegsoptimierung [arxiv] [note]
- 2016.09 Pointer Sentinel Mixture Models [arxiv] [note]
- 2016.08 Verwendung der Ausgabeeinbettung zur Verbesserung von Sprachmodellen [arxiv] [note]
- 2016.03 Wiederkehrender Schulabbruch ohne Gedächtnisverlust [arxiv] [Anmerkung]
- 2015.11 Das Hinzufügen von Gradientenrauschen verbessert das Lernen für sehr tiefe Netzwerke [arxiv] [note]
- 2015.11 Halbüberwachtes Sequenzlernen [arxiv] [Anmerkung]
- 2015.06 Wiederkehrende Netzwerke visualisieren und verstehen [arxiv] [note]
- 2015.xx Kalkül auf Computergraphen: Backpropagation [github] [note]
- 2014.12 Empirische Bewertung von Gated Recurrent Neural Networks zur Sequenzmodellierung [arxiv] [note]
- 2014.09 Regularisierung wiederkehrender neuronaler Netze [arxiv] [Anmerkung]
- 2013.12 Wie man tiefe rekurrente neuronale Netze konstruiert [arxiv] [note]
- 2010.xx Die Schwierigkeit verstehen, Deep-Feedforward-Neuronale Netze zu trainieren [imag] [note]
- 2010.xx Stacked Denoising Autoencoders [Papier] [Anmerkung]
- 2008.07 Eine einheitliche Architektur für die Verarbeitung natürlicher Sprache [collobert] [Anmerkung]
Transformator
- 2019.09 ALBERT: Ein Lite-BERT für selbstüberwachtes Lernen von Sprachrepräsentationen [arxiv] [Anmerkung]
- 2019.07 RoBERTa: Ein robust optimierter BERT-Pretraining-Ansatz [arxiv] [note]
- 2019.04 ERNIE: Verbesserte Darstellung durch Wissensintegration [arxiv] [Anmerkung]
- 2018.10 BERT: Vorschulung tiefer bidirektionaler Transformatoren für Sprachverständnis [arxiv] [Anmerkung]
- 2018.06 Verbesserung des Sprachverständnisses durch generatives Pre-Training [amazonaws] [note]
- 2018.03 Universal Sentence Encoder [arxiv] [note]
- 2017.06 Aufmerksamkeit ist alles, was Sie brauchen [arxiv] [Anmerkung]
Sequenz zu Sequenz
- 2018.07 Sequenz-zu-Sequenz-Datenerweiterung für das Verständnis von Dialogsprachen [arxiv] [Übersetzung]
- 2018.07 Fluency Boost Learning und Inferenz für die Korrektur neuronaler grammatikalischer Fehler [aclweb] [note]
- 2017.04 Auf den Punkt kommen: Zusammenfassung mit Pointer-Generator-Netzwerken [arxiv] [note]
- 2017.04 Lernen, Text zu überfliegen [arxiv] [note]
- 2015.06 Zeigernetzwerke [arxiv] [Anmerkung]
- 2015.06 Skip-Thought-Vektoren [arxiv] [note]
- 2014.12 Grammatik als Fremdsprache [arxiv] [Anmerkung]
- 2014.12 Zur Verwendung eines sehr großen Zielvokabulars für die neuronale maschinelle Übersetzung [arxiv] [note]
- 2014.09 Neural Machine Translation von Jontly Learning to Align and Translate [arxiv] [note]
- 2014.09 Sequence-to-Sequence-Lernen mit neuronalen Netzen [arxiv] [note]
Multitasking
- 2019.01 Multitasking Deep Neural Networks for Natural Language Understanding [arxiv] [note]
- 2018.08 Modellierung von Aufgabenbeziehungen beim Multi-Task-Lernen mit Multi-Gate-Expertenmischung [acm] [Anmerkung]
- 2016.12 Überwindung des katastrophalen Vergessens in neuronalen Netzen [arxiv] [Anmerkung]
Erkennung von Namensentitäten
- 2018.05 Chinesisches NER mit Lattice LSTM [arxiv] [Anmerkung]
- 2018.03 Neural Fine-Grained Entity Type Classification with Hierarchy-Aware Loss [arxiv] [note]
- 2017.04 Halbüberwachtes Multitasking-Lernen für die Sequenzkennzeichnung [arxiv] [note]
- 2016.03 Neuronale Architekturen für die Erkennung benannter Entitäten [arxiv] [note]
- 2016.xx Neural Architectures for Fine-Grained Entity Type Classification [aclweb] [note]
Selbstüberwachtes Lernen
- 2020.02 Ein einfacher Rahmen für das kontrastive Lernen visueller Darstellungen [arxiv] [note]
andere
- 2017.06 Ein einfaches neuronales Netzwerkmodul für relationales Denken [arxiv] [Anmerkung]
- 2016.11 Wort oder Zeichen, feinkörniges Gating für das Leseverständnis [arxiv] [note]
- 2016.08 Neural Machine Translation of Rare Words with Subword Units (BPE) [aclweb] [note]
- 2005.08 Personalisierung der Suche durch automatisierte Analyse von Interessen und Aktivitäten [Microsoft] [Anmerkung]