NLP-Models-Tensorflow , Mengumpulkan pembelajaran mesin dan model pembelajaran mendalam tensorflow untuk masalah NLP, penyederhanaan kode di dalam Jupyter Notebooks 100% .
Daftar isi
- Peringkasan Abstraktif
- bot obrolan
- Pengurai Ketergantungan
- Penandaan Entitas
- Peringkasan Ekstraktif
- Generator
- Deteksi Bahasa
- Terjemahan Mesin Neural
- OCR
- Penandaan POS
- Pertanyaan-Jawaban
- Pasangan kalimat
- Pidato-ke-Teks
- Koreksi ejaan
- Pertanyaan-Jawaban SQUAD
- Berasal
- Augmentasi Teks
- Klasifikasi Teks
- Kesamaan Teks
- Teks-ke-Ucapan
- Pembuat Topik
- Pemodelan Topik
- Peringkasan Ekstraktif Tanpa Pengawasan
- Vektorisasi
- Vocoder Tua ke Muda
- Visualisasi
- Perhatian
Tujuan
Implementasi aslinya cukup kompleks dan tidak ramah bagi pemula. Jadi saya mencoba menyederhanakan sebagian besarnya. Selain itu, masih banyak lagi implementasi makalah yang belum dirilis. Jadi jangan ragu untuk menggunakannya untuk penelitian Anda sendiri!
Saya akan melampirkan repositori github untuk model yang tidak saya terapkan dari awal, pada dasarnya saya menyalin, menempelkan, dan memperbaiki kode tersebut untuk masalah yang tidak digunakan lagi.
Versi Tensorflow
Tensorflow hanya versi 1.13 dan lebih tinggi, tidak termasuk versi 2.X. 1.13 < Aliran Tensor < 2.0
pip install -r requirements.txt
Isi
Peringkasan Abstraktif
Dilatih tentang berita India.
Akurasi berdasarkan 10 epoch saja, dihitung menggunakan posisi kata.
Daftar lengkap (12 buku catatan)
- LSTM Seq2Seq menggunakan pemodelan topik, akurasi pengujian 13,22%
- LSTM Seq2Seq + Luong Perhatian menggunakan pemodelan topik, akurasi pengujian 12,39%
- LSTM Seq2Seq + Beam Decoder menggunakan pemodelan topik, akurasi pengujian 10,67%
- LSTM Dua Arah + Luong Attention + Beam Decoder menggunakan pemodelan topik, akurasi pengujian 8,29%
- Pointer-Generator + Bahdanau, https://github.com/xueyouluo/my_seq2seq, akurasi pengujian 15,51%
- Copynet, akurasi pengujian 11,15%
- Pointer-Generator + Luong, https://github.com/xueyouluo/my_seq2seq, akurasi pengujian 16,51%
- Seq2Seq melebar, akurasi pengujian 10,88%
- Dilatasi Seq2Seq + Self Attention, akurasi tes 11,54%
- BERT + Dilatasi CNN Seq2seq, akurasi pengujian 13,5%
- perhatian diri + Pointer-Generator, akurasi tes 4,34%
- Dilatasi-CNN Seq2seq + Pointer-Generator, akurasi pengujian 5,57%
bot obrolan
Dilatih korpus Dialog Film Cornell, tabel akurasi di chatbot.
Daftar lengkap (54 buku catatan)
- Sel dasar Seq2Seq-manual
- LSTM Seq2Seq-manual
- Panduan GRU Seq2Seq
- Sel dasar Seq2Seq-API Serakah
- LSTM Seq2Seq-API Serakah
- GRU Seq2Seq-API Serakah
- Sel dasar Seq2Seq-manual dua arah
- Panduan Seq2Seq Dua Arah LSTM
- Panduan Seq2Seq Dua Arah GRU
- Sel dasar Seq2Seq-API Dua Arah Serakah
- LSTM Dua Arah Seq2Seq-API Serakah
- GRU Dua Arah Seq2Seq-API Serakah
- Sel dasar Seq2Seq-manual + Perhatian Luong
- LSTM Seq2Seq-manual + Perhatian Luong
- GRU Seq2Seq-manual + Perhatian Luong
- Sel dasar Seq2Seq-manual + Bahdanau Perhatian
- LSTM Seq2Seq-manual + Bahdanau Perhatian
- GRU Seq2Seq-manual + Bahdanau Perhatian
- LSTM Dua Arah Seq2Seq-manual + Perhatian Luong
- GRU Dua Arah Seq2Seq-manual + Perhatian Luong
- LSTM Dua Arah Seq2Seq-manual + Bahdanau Perhatian
- GRU Dua Arah Seq2Seq-manual + Perhatian Bahdanau
- LSTM Dua Arah Seq2Seq-manual + Bahdanau mundur + Luong maju
- GRU Dua Arah Seq2Seq-manual + Bahdanau mundur + Luong maju
- LSTM Seq2Seq-API Serakah + Perhatian Luong
- GRU Seq2Seq-API Serakah + Perhatian Luong
- LSTM Seq2Seq-API Serakah + Perhatian Bahdanau
- GRU Seq2Seq-API Serakah + Perhatian Bahdanau
- Dekoder Sinar LSTM Seq2Seq-API
- Dekoder Sinar GRU Seq2Seq-API
- LSTM Dua Arah Seq2Seq-API + Perhatian Luong + Dekoder Sinar
- GRU Dua Arah Seq2Seq-API + Perhatian Luong + Dekoder Sinar
- LSTM Dua Arah Seq2Seq-API + Bahdanau mundur + Luong maju + Stack Bahdanau Luong Perhatian + Beam Decoder
- GRU Dua Arah Seq2Seq-API + Bahdanau mundur + Luong maju + Stack Bahdanau Luong Perhatian + Beam Decoder
- bytenet
- LSTM Seq2Seq + tf.estimator
- Lapisan kapsul + LSTM Seq2Seq-API Greedy
- Lapisan kapsul + LSTM Seq2Seq-API + Perhatian Luong + Dekoder Sinar
- LSTM Dua Arah Seq2Seq-API + Bahdanau mundur + Luong maju + Stack Bahdanau Luong Perhatian + Beam Decoder + Dropout + L2
- DNC Seq2Seq
- LSTM Dua Arah Seq2Seq-API + Perhatian Monotik Luong + Dekoder Sinar
- LSTM Dua Arah Seq2Seq-API + Perhatian Monotik Bahdanau + Dekoder Sinar
- Jaringan Memori Ujung-ke-Ujung + Sel dasar
- Jaringan Memori End-to-End + sel LSTM
- Hanya perhatian yang Anda butuhkan
- Transformator-XL
- Yang Anda butuhkan hanyalah perhatian + Pencarian Sinar
- Transformator-XL + LSTM
- GPT-2 + LSTM
- CNN Seq2seq
- Konv-Encoder + LSTM
- Dekoder Tacotron + Serakah
- Dekoder Tacotron + Beam
- Google NMT
Ketergantungan-Parser
Dilatih tentang Ketergantungan Bahasa Inggris CONLL. Latih set untuk melatih, pengembangan, dan set pengujian untuk menguji.
Stackpointer dan Biaffine-attention aslinya dari https://github.com/XuezheMax/NeuroNLP2 yang ditulis dalam Pytorch.
Akurasi berdasarkan arc, tipe, dan akurasi root setelah 15 epoch saja.
Daftar lengkap (8 buku catatan)
- RNN dua arah + CRF + Biaffine, akurasi busur 70,48%, akurasi tipe 65,18%, akurasi root 66,4%
- RNN dua arah + Bahdanau + CRF + Biaffine, akurasi busur 70,82%, akurasi tipe 65,33%, akurasi root 66,77%
- RNN dua arah + Luong + CRF + Biaffine, akurasi busur 71,22%, akurasi tipe 65,73%, akurasi root 67,23%
- BERT Base + CRF + Biaffine, akurasi busur 64,30%, akurasi tipe 62,89%, akurasi root 74,19%
- RNN dua arah + Perhatian Biaffine + Entropi Silang, akurasi busur 72,42%, akurasi tipe 63,53%, akurasi akar 68,51%
- BERT Base + Biaffine Attention + Cross Entropy, akurasi busur 72,85%, akurasi tipe 67,11%, akurasi root 73,93%
- RNN dua arah + Stackpointer, akurasi busur 61,88%, akurasi tipe 48,20%, akurasi root 89,39%
- Basis XLNET + Perhatian Biaffine + Entropi Silang, akurasi busur 74,41%, akurasi tipe 71,37%, akurasi root 73,17%
Penandaan Entitas
Dilatih di CONLL NER.
Daftar lengkap (9 buku catatan)
- RNN dua arah + CRF, akurasi pengujian 96%
- RNN dua arah + Perhatian Luong + CRF, akurasi pengujian 93%
- RNN dua arah + Bahdanau Perhatian + CRF, akurasi pengujian 95%
- Char Ngrams + RNN Dua Arah + Bahdanau Perhatian + CRF, akurasi pengujian 96%
- Char Ngrams + RNN Dua Arah + Bahdanau Perhatian + CRF, akurasi pengujian 96%
- Char Ngrams + Jaringan Residual + Bahdanau Perhatian + CRF, akurasi pengujian 69%
- Char Ngrams + Perhatian yang Anda semua Butuhkan + CRF, akurasi tes 90%
- BERT, akurasi pengujian 99%
- XLNET-Base, akurasi pengujian 99%
Peringkasan Ekstraktif
Dilatih pada kumpulan data CNN News.
Akurasi berdasarkan ROUGE-2.
Daftar lengkap (4 buku catatan)
- LSTM RNN, akurasi pengujian 16,13%
- Dilatasi-CNN, akurasi tes 15,54%
- Perhatian Multihead, akurasi pengujian 26,33%
- Basis BERT
Generator
Dilatih tentang kumpulan data Shakespeare.
Daftar lengkap (15 buku catatan)
- RNN + LSTM dari segi karakter
- Pencarian RNN + Beam berdasarkan karakter
- RNN + LSTM + Penyematan berdasarkan karakter
- RNN + LSTM dari segi kata
- RNN + LSTM + Penyematan dari segi kata
- Dari segi karakter + Seq2Seq + GRU
- Bijaksana kata + Seq2Seq + GRU
- RNN dari segi karakter + LSTM + Perhatian Bahdanau
- RNN dari segi karakter + LSTM + Perhatian Luong
- Bijaksana kata + Seq2Seq + GRU + Beam
- Dari segi karakter + Seq2Seq + GRU + Bahdanau Perhatian
- Bijaksana kata + Seq2Seq + GRU + Bahdanau Perhatian
- Pencarian CNN + Beam Dilatasi berdasarkan karakter
- Pencarian Transformator + Balok
- Pencarian Transformer XL + Beam
Deteksi bahasa
Dilatih tentang kumpulan data Tatoeba.
Daftar lengkap (1 buku catatan)
- Char N-Gram teks cepat
Terjemahan Mesin Neural
Dilatih dalam bahasa Inggris-Prancis, tabel akurasi dalam terjemahan mesin saraf.
Daftar lengkap (53 buku catatan)
1.basic-seq2seq 2.lstm-seq2seq 3.gru-seq2seq 4.basic-seq2seq-contrib-greedy 5.lstm-seq2seq-contrib-greedy 6.gru-seq2seq-contrib-greedy 7.basic-birnn-seq2seq 8.lstm-birnn-seq2seq 9.gru-birnn-seq2seq 10.basic-birnn-seq2seq-contrib-greedy 11.lstm-birnn-seq2seq-contrib-greedy 12.gru-birnn-seq2seq-contrib-greedy 13.basic -seq2seq-luong 14.lstm-seq2seq-luong 15.gru-seq2seq-luong 16.basic-seq2seq-bahdanau 17.lstm-seq2seq-bahdanau 18.gru-seq2seq-bahdanau 19.basic-birnn-seq2seq-bahdanau 20.lstm-birnn-seq2seq-bahdanau 21.gru-birnn-seq2seq-bahdanau 22.basic-birnn-seq2seq-luong 23.lstm-birnn-seq2seq-luong 24.gru-birnn-seq2seq-luong 25.lstm-seq2seq -kontribusi-serakah-luong 26.gru-seq2seq-contrib-greedy-luong 27.lstm-seq2seq-contrib-greedy-bahdanau 28.gru-seq2seq-contrib-greedy-bahdanau 29.lstm-seq2seq-contrib-beam-luong 30.gru-seq2seq- kontribusi-balok-luong 31.lstm-seq2seq-contrib-beam-bahdanau 32.gru-seq2seq-contrib-beam-bahdanau 33.lstm-birnn-seq2seq-contrib-beam-bahdanau 34.lstm-birnn-seq2seq-contrib-beam-luong 35.gru-birnn-seq2seq-contrib-beam-bahdanau 36.gru-birnn-seq2seq-contrib-beam-luong 37.lstm-birnn-seq2seq-contrib-beam-luongmonotonic 38.gru-birnn-seq2seq-contrib-beam -luongmonotik 39.lstm-birnn-seq2seq-contrib-beam-bahdanaumonotonic 40.gru-birnn-seq2seq-contrib-beam-bahdanaumonotic 41.residual-lstm-seq2seq-greedy-luong 42.residual-gru-seq2seq-greedy-luong 43.residual-lstm-seq2seq-greedy-bahdanau 44.residual-gru-seq2seq-greedy-bahdanau 45.memory-network-lstm-decoder-greedy 46.google-nmt 47.transformer-encoder-transformer-decoder 48.transformer -encoder-lstm-decoder-serakah 49.bertmultibahasa-encoder-bertmultibahasa-decoder 50.bertmultibahasa-encoder-lstm-decoder 51.bertmultibahasa-encoder-transformer-decoder 52.bertenglish-encoder-transformer-decoder 53.transformer-t2t-2gpu
OCR (pengenalan karakter optik)
Daftar lengkap (2 buku catatan)
- CNN + LSTM RNN, akurasi pengujian 100%
- Im2Latex, akurasi tes 100%
Penandaan POS
Dilatih tentang CONLL POS.
Daftar lengkap (8 buku catatan)
- RNN dua arah + CRF, akurasi pengujian 92%
- RNN dua arah + Perhatian Luong + CRF, akurasi pengujian 91%
- RNN dua arah + Bahdanau Perhatian + CRF, akurasi pengujian 91%
- Char Ngrams + RNN Dua Arah + Bahdanau Perhatian + CRF, akurasi pengujian 91%
- Char Ngrams + RNN Dua Arah + Bahdanau Perhatian + CRF, akurasi pengujian 91%
- Char Ngrams + Jaringan Residual + Bahdanau Perhatian + CRF, akurasi tes 3%
- Char Ngrams + Perhatian yang Anda semua Butuhkan + CRF, akurasi tes 89%
- BERT, akurasi pengujian 99%
Pertanyaan-Jawaban
Dilatih tentang Set Data bAbI.
Daftar lengkap (4 buku catatan)
- Jaringan Memori Ujung-ke-Ujung + Sel dasar
- Jaringan Memori Ujung-ke-Ujung + sel GRU
- Jaringan Memori End-to-End + sel LSTM
- Memori Dinamis
Pasangan kalimat
Dilatih di Film Cornell--Dialogs Corpus
Daftar lengkap (1 buku catatan)
- BERT
Pidato ke Teks
Dilatih tentang kumpulan data pidato Toronto.
Daftar lengkap (11 buku catatan)
- Tacotron, https://github.com/Kyubyong/tacotron_asr, akurasi pengujian 77,09%
- BiRNN LSTM, akurasi pengujian 84,66%
- BiRNN Seq2Seq + Luong Attention + Cross Entropy, akurasi pengujian 87,86%
- BiRNN Seq2Seq + Bahdanau Perhatian + Cross Entropy, akurasi pengujian 89,28%
- BiRNN Seq2Seq + Bahdanau Perhatian + CTC, akurasi pengujian 86,35%
- BiRNN Seq2Seq + Luong Attention + CTC, akurasi pengujian 80,30%
- CNN RNN + Bahdanau Perhatian, akurasi tes 80,23%
- CNN RNN melebar, akurasi pengujian 31,60%
- Wavenet, akurasi pengujian 75,11%
- Deep Speech 2, akurasi tes 81,40%
- Wav2Vec Transfer learning BiRNN LSTM, akurasi pengujian 83,24%
Koreksi ejaan
Daftar lengkap (4 buku catatan)
- Basis BERT
- Basis XLNET
- BERT-Base Cepat
- BERT-Base akurat
Pertanyaan-Jawaban SQUAD
Dilatih tentang Kumpulan Data SQUAD.
Daftar lengkap (1 buku catatan)
- BERT,
{ "exact_match" : 77.57805108798486 , "f1" : 86.18327335287402 }
Berasal
Terlatih Lemmatisasi Bahasa Inggris.
Daftar lengkap (6 buku catatan)
- LSTM + Seq2Seq + Balok
- GRU + Seq2Seq + Balok
- LSTM + BiRNN + Seq2Seq + Balok
- GRU + BiRNN + Seq2Seq + Balok
- DNC + Seq2Seq + Serakah
- BiRNN + Bahdanau + Copynet
Augmentasi Teks
Daftar lengkap (8 buku catatan)
- Sarung Tangan yang Telah Dilatih sebelumnya
- Probabilitas TF GRU VAE-seq2seq-beam
- Probabilitas TF LSTM VAE-seq2seq-beam
- GRU VAE-seq2seq-beam + Bahdanau Perhatian TF-probabilitas
- VAE + Perhatian Bahdanau deterministik, https://github.com/HareeshBahuleyan/tf-var-attention
- VAE + VAE Bahdanau Perhatian, https://github.com/HareeshBahuleyan/tf-var-attention
- Pengambilan Sampel Basis BERT + Inti
- Pengambilan Sampel Basis XLNET + Inti
Klasifikasi teks
Dilatih tentang kumpulan data sentimen bahasa Inggris, tabel akurasi dalam klasifikasi teks.
Daftar lengkap (79 buku catatan)
- RNN sel dasar
- RNN sel dasar + Engsel
- Sel dasar RNN + Huber
- RNN dua arah sel dasar
- Sel dasar RNN Dua Arah + Engsel
- Sel dasar RNN Dua Arah + Huber
- RNN sel LSTM
- Sel LSTM RNN + Engsel
- Sel LSTM RNN + Huber
- RNN dua arah sel LSTM
- Sel LSTM RNN Dua Arah + Huber
- Sel LSTM RNN + Putus Sekolah + L2
- RNN sel GRU
- Sel GRU RNN + Engsel
- sel GRU RNN + Huber
- RNN dua arah sel GRU
- Sel GRU RNN Dua Arah + Engsel
- Sel GRU RNN Dua Arah + Huber
- LSTM RNN + Konv2D
- K-maks Konv1d
- LSTM RNN + Konv1D + Jalan Raya
- LSTM RNN + Perhatian Dasar
- LSTM Dilatasi RNN
- RNN sel LSTM Norma Lapisan
- Hanya Jaringan Syaraf Perhatian
- Jaringan Neural Perhatian Multihead
- Mesin Turing Saraf
- LSTM Seq2Seq
- LSTM Seq2Seq + Perhatian Luong
- LSTM Seq2Seq + Bahdanau Perhatian
- LSTM Seq2Seq + Dekoder Sinar
- LSTM Dua Arah Seq2Seq
- Jaring Penunjuk
- Sel LSTM RNN + Bahdanau Perhatian
- Sel LSTM RNN + Perhatian Luong
- Sel LSTM RNN + Tumpukan Bahdanau Luong Perhatian
- Sel LSTM RNN Dua Arah + Bahdanau mundur + Luong maju
- bytenet
- LSTM cepat-lambat
- Jaringan Siam
- LSTM Seq2Seq + tf.estimator
- Lapisan kapsul + RNN LSTM
- Lapisan kapsul + LSTM Seq2Seq
- Lapisan kapsul + LSTM Dua Arah Seq2Seq
- LSTM Bersarang
- LSTM Seq2Seq + Jalan Raya
- Kerugian triplet + LSTM
- DNC (Komputer Neural Diferensiasi)
- KonvLSTM
- Konvd Net Temporal
- Batch-semua Triplet-loss + LSTM
- Teks cepat
- Jaringan Konvolusi Berpagar
- Unit Berulang Sederhana
- Jaringan Perhatian Hierarki LSTM
- Transformator Dua Arah
- Jaringan Memori Dinamis
- Jaringan Entitas
- Jaringan Memori Ujung-ke-Ujung
- BOW-Chars Jaringan yang sangat jarang
- Jaringan Sisa menggunakan Atrous CNN
- Jaringan Sisa menggunakan Atrous CNN + Bahdanau Attention
- CNN piramida dalam
- Transformator-XL
- Transfer pembelajaran GPT-2 345M
- Kuasi-RNN
- Tacotron
- Iris GRU
- Iris GRU + Bahdanau
- jaringan gelombang
- Mentransfer pembelajaran BERT Base
- Transfer pembelajaran XL-net Besar
- LSTM BiRNN global Maks dan pengumpulan rata-rata
- Transfer pembelajaran BERT Base drop 6 lapisan
- Transfer pembelajaran BERT Drop besar 12 lapisan
- Transfer pembelajaran Basis XL-net
- Transfer pembelajaran ALBERT
- Transfer pembelajaran Basis ELECTRA
- Transfer pembelajaran ELECTRA Besar
Kesamaan Teks
Dilatih di MNLI.
Daftar lengkap (10 buku catatan)
- BiRNN + Kerugian kontras, akurasi pengujian 73,032%
- BiRNN + Cross entropy, akurasi pengujian 74,265%
- BiRNN + Hilangnya lingkaran, akurasi pengujian 75,857%
- BiRNN + Proxy loss, akurasi pengujian 48,37%
- BERT Base + Cross entropy, akurasi pengujian 91,123%
- BERT Base + Circle loss, akurasi pengujian 89,903%
- Basis ELECTRA + Entropi silang, akurasi pengujian 96,317%
- ELECTRA Base + Circle loss, akurasi pengujian 95,603%
- XLNET Base + Cross entropy, akurasi pengujian 93,998%
- XLNET Base + Circle loss, akurasi pengujian 94,033%
Teks ke Ucapan
Dilatih tentang kumpulan data pidato Toronto.
Daftar lengkap (8 buku catatan)
- Tacotron, https://github.com/Kyubyong/tacotron
- CNN Seq2seq + Vocoder CNN melebar
- Seq2Seq + Bahdanau Perhatian
- Seq2Seq + Perhatian Luong
- CNN Dilatasi + Perhatian Monoton + Vocoder CNN Dilatasi
- CNN Dilatasi + Perhatian Diri + Vocoder CNN Dilatasi
- CNN Dalam + Perhatian Monoton + Vocoder CNN melebar
- CNN Dalam + Perhatian Diri + Vocoder CNN melebar
Pembuat Topik
Dilatih tentang berita Malaysia.
Daftar lengkap (4 buku catatan)
- TAT-LSTM
- TAV-LSTM
- MTA-LSTM
- CNN Seq2seq melebar
Pemodelan Topik
Diekstraksi dari kumpulan data sentimen bahasa Inggris.
Daftar lengkap (3 buku catatan)
- LDA2Vec
- Perhatian BERT
- Perhatian XLNET
Peringkasan Ekstraktif Tanpa Pengawasan
Dilatih pada buku acak.
Daftar lengkap (3 buku catatan)
- Lewati pemikiran Vektor
- Jaringan Sisa menggunakan Atrous CNN
- Jaringan Sisa menggunakan Atrous CNN + Bahdanau Attention
Vektorisasi
Dilatih tentang kumpulan data sentimen bahasa Inggris.
Daftar lengkap (11 buku catatan)
- Word Vector menggunakan contoh softmax CBOW
- Word Vector menggunakan estimasi kontrastif kebisingan CBOW
- Word Vector menggunakan sampel skipgram softmax
- Word Vector menggunakan estimasi kontrastif noise skipgram
- Tertanam yang Diawasi
- Kerugian triplet + LSTM
- Encoder Otomatis LSTM
- LSTM Kerugian Triplet Batch-Semua
- Teks cepat
- ELMO (biLM)
- Kerugian triplet + BERT
Visualisasi
Daftar lengkap (4 buku catatan)
- Peta panas perhatian di Bahdanau Perhatian
- Peta panas perhatian pada Perhatian Luong
- Perhatian BERT, https://github.com/hsm207/bert_attn_viz
- Perhatian XLNET
Vocoder Tua ke Muda
Dilatih tentang kumpulan data pidato Toronto.
Daftar lengkap (1 buku catatan)
- CNN melebar
Perhatian
Daftar lengkap (8 buku catatan)
- Bahdanau
- Luong
- Hierarki
- Aditif
- Lembut
- Perhatian-lebih-Perhatian
- API Bahdanau
- API Luong
Bukan pembelajaran mendalam
- bot obrolan Markov
- Ringkasan dekomposisi (3 buku catatan)