NLP-Models-Tensorflow , sammelt Modelle für maschinelles Lernen und Tensorflow-Deep-Learning für NLP-Probleme, Code wird in Jupyter Notebooks zu 100 % vereinfacht .
Inhaltsverzeichnis
- Abstrakte Zusammenfassung
- Chatbot
- Abhängigkeitsparser
- Entitäts-Tagging
- Extraktive Zusammenfassung
- Generator
- Spracherkennung
- Neuronale maschinelle Übersetzung
- OCR
- POS-Tagging
- Frage-Antworten
- Satzpaare
- Speech-to-Text
- Rechtschreibkorrektur
- SQUAD Frage-Antworten
- Stemmen
- Texterweiterung
- Textklassifizierung
- Textähnlichkeit
- Text-to-Speech
- Themengenerator
- Themenmodellierung
- Unbeaufsichtigte extraktive Zusammenfassung
- Vektorisierer
- Alt-zu-Jung-Vocoder
- Visualisierung
- Aufmerksamkeit
Objektiv
Ursprüngliche Implementierungen sind recht komplex und nicht wirklich einsteigerfreundlich. Deshalb habe ich versucht, das meiste davon zu vereinfachen. Außerdem gibt es jede Menge noch nicht veröffentlichte Release-Dokumente zur Implementierung. Nutzen Sie es also gerne für Ihre eigene Recherche!
Ich werde Github-Repositorys für Modelle anhängen, die ich nicht von Grund auf implementiert habe. Im Grunde kopiere, füge ich diesen Code ein und behebe ihn für veraltete Probleme.
Tensorflow-Version
Nur Tensorflow-Version 1.13 und höher, nicht enthalten 2.X-Version. 1,13 < Tensorflow < 2,0
pip install -r requirements.txt
Inhalt
Abstrakte Zusammenfassung
Auf Nachrichten aus Indien geschult.
Genauigkeit basiert nur auf 10 Epochen, berechnet anhand der Wortpositionen.
Vollständige Liste (12 Notizbücher)
- LSTM Seq2Seq mit Themenmodellierung, Testgenauigkeit 13,22 %
- LSTM Seq2Seq + Luong Aufmerksamkeit mithilfe der Themenmodellierung, Testgenauigkeit 12,39 %
- LSTM Seq2Seq + Beam Decoder mit Themenmodellierung, Testgenauigkeit 10,67 %
- LSTM Bidirektional + Luong Attention + Beam Decoder mit Themenmodellierung, Testgenauigkeit 8,29 %
- Pointer-Generator + Bahdanau, https://github.com/xueyouluo/my_seq2seq, Testgenauigkeit 15,51 %
- Copynet, Testgenauigkeit 11,15 %
- Zeigergenerator + Luong, https://github.com/xueyouluo/my_seq2seq, Testgenauigkeit 16,51 %
- Dilatiertes Seq2Seq, Testgenauigkeit 10,88 %
- Dilatiertes Seq2Seq + Selbstaufmerksamkeit, Testgenauigkeit 11,54 %
- BERT + Dilatiertes CNN Seq2seq, Testgenauigkeit 13,5 %
- Selbstaufmerksamkeit + Pointer-Generator, Testgenauigkeit 4,34 %
- Dilated-CNN Seq2seq + Pointer-Generator, Testgenauigkeit 5,57 %
Chatbot
Geschult auf dem Cornell Movie Dialog-Korpus und der Genauigkeitstabelle im Chatbot.
Vollständige Liste (54 Notizbücher)
- Grundlegendes Seq2Seq-Handbuch für Zellen
- LSTM Seq2Seq-Handbuch
- GRU Seq2Seq-Handbuch
- Basiszelle Seq2Seq-API Greedy
- LSTM Seq2Seq-API Greedy
- GRU Seq2Seq-API Gierig
- Basiszelle Bidirektionales Seq2Seq-Handbuch
- LSTM Bidirektionales Seq2Seq-Handbuch
- GRU Bidirektionales Seq2Seq-Handbuch
- Grundlegende Zelle Bidirektionale Seq2Seq-API Greedy
- LSTM Bidirektionale Seq2Seq-API Greedy
- GRU Bidirektionale Seq2Seq-API Greedy
- Basiszelle Seq2Seq-Handbuch + Luong Achtung
- LSTM Seq2Seq-Handbuch + Luong Achtung
- GRU Seq2Seq-Handbuch + Luong Achtung
- Basiszelle Seq2Seq-Handbuch + Bahdanau Achtung
- LSTM Seq2Seq-Handbuch + Bahdanau Achtung
- GRU Seq2Seq-Handbuch + Bahdanau Achtung
- LSTM Bidirektionales Seq2Seq-Handbuch + Luong Achtung
- GRU Bidirektionales Seq2Seq-Handbuch + Luong Achtung
- LSTM Bidirektionales Seq2Seq-Handbuch + Bahdanau Achtung
- GRU Bidirektionales Seq2Seq-Handbuch + Bahdanau Achtung
- LSTM Bidirektionales Seq2Seq-manuell + rückwärts Bahdanau + vorwärts Luong
- GRU Bidirektionales Seq2Seq-manuell + rückwärts Bahdanau + vorwärts Luong
- LSTM Seq2Seq-API Greedy + Luong Achtung
- GRU Seq2Seq-API Greedy + Luong Achtung
- LSTM Seq2Seq-API Greedy + Bahdanau Achtung
- GRU Seq2Seq-API Greedy + Bahdanau Achtung
- LSTM Seq2Seq-API Strahldecoder
- GRU Seq2Seq-API Beam Decoder
- LSTM Bidirektionale Seq2Seq-API + Luong Attention + Beam Decoder
- GRU Bidirektionale Seq2Seq-API + Luong Attention + Beam Decoder
- LSTM Bidirektionale Seq2Seq-API + Rückwärts Bahdanau + Vorwärts Luong + Stack Bahdanau Luong Attention + Beam Decoder
- GRU Bidirektionale Seq2Seq-API + Rückwärts Bahdanau + Vorwärts Luong + Stack Bahdanau Luong Attention + Beam Decoder
- Bytenet
- LSTM Seq2Seq + tf.estimator
- Kapselschichten + LSTM Seq2Seq-API Greedy
- Kapselschichten + LSTM Seq2Seq-API + Luong Attention + Beam Decoder
- LSTM Bidirektionale Seq2Seq-API + rückwärts Bahdanau + vorwärts Luong + Stack Bahdanau Luong Achtung + Beam Decoder + Dropout + L2
- DNC Seq2Seq
- LSTM Bidirektionale Seq2Seq-API + Luong Monotic Attention + Beam Decoder
- LSTM Bidirektionale Seq2Seq-API + Bahdanau Monotic Attention + Beam Decoder
- End-to-End-Speichernetzwerk + Basiszelle
- End-to-End-Speichernetzwerk + LSTM-Zelle
- Aufmerksamkeit ist alles, was Sie brauchen
- Transformer-XL
- Aufmerksamkeit ist alles, was Sie brauchen + Beam Search
- Transformer-XL + LSTM
- GPT-2 + LSTM
- CNN Seq2seq
- Konv.-Encoder + LSTM
- Tacotron + Greedy-Decoder
- Tacotron + Beam-Decoder
- Google NMT
Abhängigkeitsparser
Ausgebildet in CONLL English Dependency. Trainiere Sets zum Trainieren, entwickle und teste Sets zum Testen.
Stackpointer und Biaffine-attention ursprünglich von https://github.com/XuezheMax/NeuroNLP2, geschrieben in Pytorch.
Genauigkeit basierend auf Bogen-, Typen- und Wurzelgenauigkeiten nur nach 15 Epochen.
Vollständige Liste (8 Notizbücher)
- Bidirektionales RNN + CRF + Biaffine, Bogengenauigkeit 70,48 %, Typengenauigkeit 65,18 %, Wurzelgenauigkeit 66,4 %
- Bidirektionales RNN + Bahdanau + CRF + Biaffin, Bogengenauigkeit 70,82 %, Typengenauigkeit 65,33 %, Wurzelgenauigkeit 66,77 %
- Bidirektionales RNN + Luong + CRF + Biaffine, Bogengenauigkeit 71,22 %, Typengenauigkeit 65,73 %, Wurzelgenauigkeit 67,23 %
- BERT Base + CRF + Biaffine, Bogengenauigkeit 64,30 %, Typengenauigkeit 62,89 %, Wurzelgenauigkeit 74,19 %
- Bidirektionales RNN + Biaffine Aufmerksamkeit + Kreuzentropie, Bogengenauigkeit 72,42 %, Typengenauigkeit 63,53 %, Wurzelgenauigkeit 68,51 %
- BERT-Basis + Biaffine Aufmerksamkeit + Kreuzentropie, Bogengenauigkeit 72,85 %, Typengenauigkeit 67,11 %, Wurzelgenauigkeit 73,93 %
- Bidirektionales RNN + Stackpointer, Bogengenauigkeit 61,88 %, Typengenauigkeit 48,20 %, Wurzelgenauigkeit 89,39 %
- XLNET-Basis + Biaffine Aufmerksamkeit + Kreuzentropie, Bogengenauigkeit 74,41 %, Typengenauigkeit 71,37 %, Wurzelgenauigkeit 73,17 %
Entity-Tagging
Ausgebildet auf CONLL NER.
Vollständige Liste (9 Notizbücher)
- Bidirektionales RNN + CRF, Testgenauigkeit 96 %
- Bidirektionales RNN + Luong Attention + CRF, Testgenauigkeit 93 %
- Bidirektionales RNN + Bahdanau Attention + CRF, Testgenauigkeit 95 %
- Char Ngrams + Bidirektionales RNN + Bahdanau Attention + CRF, Testgenauigkeit 96 %
- Char Ngrams + Bidirektionales RNN + Bahdanau Attention + CRF, Testgenauigkeit 96 %
- Char Ngrams + Residual Network + Bahdanau Attention + CRF, Testgenauigkeit 69 %
- Char Ngrams + Achtung, Sie brauchen alles + CRF, Testgenauigkeit 90 %
- BERT, Testgenauigkeit 99 %
- XLNET-Base, Testgenauigkeit 99 %
Extraktive Zusammenfassung
Auf Basis des CNN News-Datensatzes trainiert.
Genauigkeit basierend auf ROUGE-2.
Vollständige Liste (4 Notizbücher)
- LSTM RNN, Testgenauigkeit 16,13 %
- Dilatiertes CNN, Testgenauigkeit 15,54 %
- Multihead Achtung, Testgenauigkeit 26,33 %
- BERT-Basis
Generator
Basierend auf dem Shakespeare-Datensatz trainiert.
Vollständige Liste (15 Notizbücher)
- Zeichenweises RNN + LSTM
- Zeichenweise RNN + Beam-Suche
- Zeichenweises RNN + LSTM + Einbettung
- Wortweises RNN + LSTM
- Wortweises RNN + LSTM + Einbettung
- Zeichenweise + Seq2Seq + GRU
- Wortweise + Seq2Seq + GRU
- Zeichenweise RNN + LSTM + Bahdanau Achtung
- Zeichenweise RNN + LSTM + Luong Achtung
- Wortweise + Seq2Seq + GRU + Beam
- Zeichenmäßig + Seq2Seq + GRU + Bahdanau Achtung
- Wortweise + Seq2Seq + GRU + Bahdanau Achtung
- Zeichenweise erweiterte CNN + Beam-Suche
- Transformator + Strahlsuche
- Transformer XL + Strahlsuche
Spracherkennung
Auf dem Tatoeba-Datensatz trainiert.
Vollständige Liste (1 Notizbücher)
- Fast-Text-Char-N-Gramm
Neuronale maschinelle Übersetzung
Ausgebildet in Englisch-Französisch, Genauigkeitstabelle in neuronaler maschineller Übersetzung.
Vollständige Liste (53 Notizbücher)
1.basic-seq2seq 2.lstm-seq2seq 3.gru-seq2seq 4.basic-seq2seq-contrib-greedy 5.lstm-seq2seq-contrib-greedy 6.gru-seq2seq-contrib-greedy 7.basic-birnn-seq2seq 8.lstm-birnn-seq2seq 9.gru-birnn-seq2seq 10.basic-birnn-seq2seq-contrib-greedy 11.lstm-birnn-seq2seq-contrib-greedy 12.gru-birnn-seq2seq-contrib-greedy 13.basic-seq2seq-luong 14.lstm-seq2seq-luong 15.gru-seq2seq-luong 16.basic-seq2seq-bahdanau 17.lstm-seq2seq-bahdanau 18.gru-seq2seq-bahdanau 19.basic-birnn-seq2seq-bahdanau 20.lstm-birnn-seq2seq-bahdanau 21.gru-birnn-seq2seq-bahdanau 22.basic-birnn-seq2seq-luong 23.lstm-birnn-seq2seq-luong 24.gru-birnn-seq2seq-luong 25.lstm-seq2seq-contrib-greedy-luong 26.gru-seq2seq-contrib-greedy-luong 27.lstm-seq2seq-contrib-greedy-bahdanau 28.gru-seq2seq-contrib-greedy-bahdanau 29.lstm-seq2seq-contrib-beam-luong 30.gru-seq2seq-contrib-beam-luong 31.lstm-seq2seq-contrib-beam-bahdanau 32.gru-seq2seq-contrib-beam-bahdanau 33.lstm-birnn-seq2seq-contrib-beam-bahdanau 34.lstm-birnn-seq2seq-contrib-beam-luong 35.gru-birnn-seq2seq-contrib-beam-bahdanau 36.gru-birnn-seq2seq-contrib-beam-luong 37.lstm-birnn-seq2seq-contrib-beam-luongmonotonisch 38.gru-birnn-seq2seq-contrib-beam-luongmonotic 39.lstm-birnn-seq2seq-contrib-beam-bahdanaumonotonic 40.gru-birnn-seq2seq-contrib-beam-bahdanaumonotic 41.residual-lstm-seq2seq-greedy-luong 42.residual-gru-seq2seq-greedy-luong 43.residual-lstm-seq2seq-greedy-bahdanau 44.residual-gru-seq2seq-greedy-bahdanau 45.memory-network-lstm-decoder-greedy 46.google-nmt 47.transformer-encoder-transformer-decoder 48.transformer-encoder-lstm-decoder-greedy 49.bertmultilingual-encoder-bertmultilingual-decoder 50.bertmultilingual-encoder -lstm-Decoder 51.bertmultilingual-encoder-transformer-decoder 52.bertenglish-encoder-transformer-decoder 53.transformer-t2t-2gpu
OCR (optische Zeichenerkennung)
Vollständige Liste (2 Notizbücher)
- CNN + LSTM RNN, Testgenauigkeit 100 %
- Im2Latex, Testgenauigkeit 100 %
POS-Tagging
Auf CONLL POS geschult.
Vollständige Liste (8 Notizbücher)
- Bidirektionales RNN + CRF, Testgenauigkeit 92 %
- Bidirektionales RNN + Luong Attention + CRF, Testgenauigkeit 91 %
- Bidirektionales RNN + Bahdanau Attention + CRF, Testgenauigkeit 91 %
- Char Ngrams + Bidirektionales RNN + Bahdanau Attention + CRF, Testgenauigkeit 91 %
- Char Ngrams + Bidirektionales RNN + Bahdanau Attention + CRF, Testgenauigkeit 91 %
- Char Ngrams + Residual Network + Bahdanau Attention + CRF, Testgenauigkeit 3 %
- Char Ngrams + Achtung, Sie brauchen alles + CRF, Testgenauigkeit 89 %
- BERT, Testgenauigkeit 99 %
Frage-Antworten
Auf dem bAbI-Datensatz geschult.
Vollständige Liste (4 Notizbücher)
- End-to-End-Speichernetzwerk + Basiszelle
- End-to-End-Speichernetzwerk + GRU-Zelle
- End-to-End-Speichernetzwerk + LSTM-Zelle
- Dynamisches Gedächtnis
Satzpaar
Ausgebildet auf Cornell Movie--Dialogs Corpus
Vollständige Liste (1 Notizbücher)
- BERT
Sprache zum Text
Basierend auf dem Sprachdatensatz von Toronto trainiert.
Vollständige Liste (11 Notizbücher)
- Tacotron, https://github.com/Kyubyong/tacotron_asr, Testgenauigkeit 77,09 %
- BiRNN LSTM, Testgenauigkeit 84,66 %
- BiRNN Seq2Seq + Luong Attention + Cross Entropy, Testgenauigkeit 87,86 %
- BiRNN Seq2Seq + Bahdanau Attention + Cross Entropy, Testgenauigkeit 89,28 %
- BiRNN Seq2Seq + Bahdanau Attention + CTC, Testgenauigkeit 86,35 %
- BiRNN Seq2Seq + Luong Attention + CTC, Testgenauigkeit 80,30 %
- CNN RNN + Bahdanau Achtung, Testgenauigkeit 80,23 %
- Erweitertes CNN RNN, Testgenauigkeit 31,60 %
- Wavenet, Testgenauigkeit 75,11 %
- Deep Speech 2, Testgenauigkeit 81,40 %
- Wav2Vec Transferlernen BiRNN LSTM, Testgenauigkeit 83,24 %
Rechtschreibkorrektur
Vollständige Liste (4 Notizbücher)
- BERT-Basis
- XLNET-Basis
- BERT-Base Fast
- BERT-Base genau
SQUAD Frage-Antworten
Auf dem SQUAD-Datensatz trainiert.
Vollständige Liste (1 Notizbücher)
- BERT,
{ "exact_match" : 77.57805108798486 , "f1" : 86.18327335287402 }
Stemmen
Ausgebildet in englischer Lemmatisierung.
Vollständige Liste (6 Notizbücher)
- LSTM + Seq2Seq + Beam
- GRU + Seq2Seq + Beam
- LSTM + BiRNN + Seq2Seq + Beam
- GRU + BiRNN + Seq2Seq + Beam
- DNC + Seq2Seq + Greedy
- BiRNN + Bahdanau + Copynet
Texterweiterung
Vollständige Liste (8 Notizbücher)
- Vorgefertigter Handschuh
- GRU VAE-seq2seq-beam TF-Wahrscheinlichkeit
- LSTM VAE-seq2seq-beam TF-Wahrscheinlichkeit
- GRU VAE-seq2seq-beam + Bahdanau Achtung TF-Wahrscheinlichkeit
- VAE + deterministische Bahdanau-Aufmerksamkeit, https://github.com/HareeshBahuleyan/tf-var-attention
- VAE + VAE Bahdanau Achtung, https://github.com/HareeshBahuleyan/tf-var-attention
- BERT-Basis + Kernprobenahme
- XLNET-Base + Kernprobenahme
Textklassifizierung
Schulung anhand eines englischen Sentiment-Datensatzes und einer Genauigkeitstabelle bei der Textklassifizierung.
Vollständige Liste (79 Notizbücher)
- Grundlegendes Zellen-RNN
- Basiszelle RNN + Scharnier
- Grundzelle RNN + Huber
- Bidirektionales RNN für Basiszellen
- Basiszelle Bidirektionales RNN + Scharnier
- Basiszelle Bidirektionales RNN + Huber
- LSTM-Zellen-RNN
- LSTM-Zelle RNN + Scharnier
- LSTM-Zelle RNN + Huber
- LSTM-Zelle Bidirektionales RNN
- LSTM-Zelle Bidirektionales RNN + Huber
- LSTM-Zelle RNN + Dropout + L2
- GRU-Zellen-RNN
- GRU-Zelle RNN + Scharnier
- GRU-Zelle RNN + Huber
- Bidirektionales RNN der GRU-Zelle
- GRU-Zelle Bidirektionales RNN + Scharnier
- GRU-Zelle Bidirektionales RNN + Huber
- LSTM RNN + Conv2D
- K-max Conv1d
- LSTM RNN + Conv1D + Highway
- LSTM RNN + Grundlegende Aufmerksamkeit
- LSTM erweitertes RNN
- Layer-Norm LSTM-Zellen-RNN
- Nur Aufmerksamkeits-Neuronales Netzwerk
- Neuronales Multihead-Attention-Netzwerk
- Neuronale Turingmaschine
- LSTM Seq2Seq
- LSTM Seq2Seq + Luong Achtung
- LSTM Seq2Seq + Bahdanau Achtung
- LSTM Seq2Seq + Strahldecoder
- LSTM Bidirektionale Seq2Seq
- Zeigernetz
- LSTM-Zelle RNN + Bahdanau Achtung
- LSTM-Zelle RNN + Luong Achtung
- LSTM-Zelle RNN + Stack Bahdanau Luong Achtung
- LSTM-Zelle Bidirektionales RNN + rückwärts Bahdanau + vorwärts Luong
- Bytenet
- Schnell-langsamer LSTM
- Siamesisches Netzwerk
- LSTM Seq2Seq + tf.estimator
- Kapselschichten + RNN LSTM
- Kapselschichten + LSTM Seq2Seq
- Kapselschichten + LSTM Bidirektionale Seq2Seq
- Verschachteltes LSTM
- LSTM Seq2Seq + Highway
- Triplettverlust + LSTM
- DNC (Differenzierbarer neuronaler Computer)
- ConvLSTM
- Temporales Convd-Netz
- Batch-All-Triplett-Verlust + LSTM
- Schnelltext
- Gated Convolution Network
- Einfache wiederkehrende Einheit
- LSTM Hierarchisches Aufmerksamkeitsnetzwerk
- Bidirektionale Transformatoren
- Dynamisches Speichernetzwerk
- Entitätsnetzwerk
- End-to-End-Speichernetzwerk
- BOW-Chars Tiefes, spärliches Netzwerk
- Restnetzwerk mit Atrous CNN
- Restnetzwerk mit Atrous CNN + Bahdanau Attention
- Tiefe Pyramide CNN
- Transformator-XL
- Transferlernen GPT-2 345M
- Quasi-RNN
- Tacotron
- GRU in Scheiben schneiden
- GRU + Bahdanau in Scheiben schneiden
- Wavenet
- Übertragen Sie das Lernen auf die BERT-Basis
- Transferlernen XL-net Large
- LSTM BiRNN globales maximales und durchschnittliches Pooling
- Übertragen Sie das Lernen von BERT Base auf 6 Ebenen
- Transferlernen BERT Großer Tropfen 12 Schichten
- Transferlernen XL-net Base
- Transferlernen ALBERT
- Transferlernen ELECTRA Base
- Transferlernen ELECTRA Large
Textähnlichkeit
Auf MNLI geschult.
Vollständige Liste (10 Notizbücher)
- BiRNN + Kontrastverlust, Testgenauigkeit 73,032 %
- BiRNN + Kreuzentropie, Testgenauigkeit 74,265 %
- BiRNN + Kreisverlust, Testgenauigkeit 75,857 %
- BiRNN + Proxy-Verlust, Testgenauigkeit 48,37 %
- BERT-Basis + Kreuzentropie, Testgenauigkeit 91,123 %
- BERT Basis + Kreisverlust, Testgenauigkeit 89,903 %
- ELECTRA Base + Kreuzentropie, Testgenauigkeit 96,317 %
- ELECTRA Base + Circle-Verlust, Testgenauigkeit 95,603 %
- XLNET Basis + Kreuzentropie, Testgenauigkeit 93,998 %
- XLNET Basis + Kreisverlust, Testgenauigkeit 94,033 %
Text-to-Speech
Basierend auf dem Sprachdatensatz von Toronto trainiert.
Vollständige Liste (8 Notizbücher)
- Tacotron, https://github.com/Kyubyong/tacotron
- CNN Seq2seq + erweiterter CNN-Vocoder
- Seq2Seq + Bahdanau Achtung
- Seq2Seq + Luong Achtung
- Erweitertes CNN + monothonische Aufmerksamkeit + erweiterter CNN-Vocoder
- Erweitertes CNN + Selbstaufmerksamkeit + erweiterter CNN-Vocoder
- Tiefes CNN + monothische Aufmerksamkeit + erweiterter CNN-Vocoder
- Tiefes CNN + Selbstaufmerksamkeit + erweiterter CNN-Vocoder
Themengenerator
Auf Nachrichten aus Malaysia geschult.
Vollständige Liste (4 Notizbücher)
- TAT-LSTM
- TAV-LSTM
- MTA-LSTM
- Erweiterte CNN Seq2seq
Themenmodellierung
Aus dem englischen Stimmungsdatensatz extrahiert.
Vollständige Liste (3 Notizbücher)
- LDA2Vec
- BERT Achtung
- XLNET Achtung
Unbeaufsichtigte extraktive Zusammenfassung
Auf zufällige Bücher trainiert.
Vollständige Liste (3 Notizbücher)
- Skip-Gedanken-Vektor
- Restnetzwerk mit Atrous CNN
- Restnetzwerk mit Atrous CNN + Bahdanau Attention
Vektorisierer
Schulung anhand eines englischen Sentiment-Datensatzes.
Vollständige Liste (11 Notizbücher)
- Word-Vektor mit CBOW-Beispiel-Softmax
- Wortvektor unter Verwendung der CBOW-Rauschkontrastschätzung
- Word-Vektor mit Skipgram-Beispiel Softmax
- Wortvektor unter Verwendung der Kontrastschätzung des Skipgram-Rauschens
- Überwacht eingebettet
- Triplettverlust + LSTM
- LSTM Auto-Encoder
- Batch-All-Triplett-Verlust-LSTM
- Schnelltext
- ELMO (biLM)
- Triplettverlust + BERT
Visualisierung
Vollständige Liste (4 Notizbücher)
- Achtung Heatmap auf Bahdanau Achtung
- Achtung-Heatmap auf Luong Achtung
- BERT Achtung, https://github.com/hsm207/bert_attn_viz
- XLNET Aufmerksamkeit
Alt-zu-Jung-Vocoder
Basierend auf dem Sprachdatensatz von Toronto trainiert.
Vollständige Liste (1 Notizbücher)
- Erweitertes CNN
Aufmerksamkeit
Vollständige Liste (8 Notizbücher)
- Bahdanau
- Luong
- Hierarchisch
- Zusatzstoff
- Weich
- Aufmerksamkeit über Aufmerksamkeit
- Bahdanau-API
- Luong-API
Kein Deep-Learning
- Markov-Chatbot
- Zerlegungszusammenfassung (3 Notizbücher)