NLP-Models-Tensorflow 、NLP 問題用の機械学習モデルと tensorflow 深層学習モデルを収集し、 Jupyter Notebooks 内のコードを 100% 簡素化します。
元の実装は非常に複雑で、あまり初心者向けではありません。そこで、ほとんどの部分を簡略化してみました。また、まだリリースされていない実装文書も大量にあります。ですので、ご自身の研究にぜひご活用ください!
スクラッチから実装していないモデルには Github リポジトリを添付します。基本的に、非推奨の問題については、それらのコードをコピーして貼り付け、修正します。
Tensorflow バージョン 1.13 以降のみ。2.X バージョンは含まれません。 1.13 < テンソルフロー < 2.0
pip install -r requirements.txt
インドのニュースについて研修を受けました。
精度は 10 エポックのみに基づいており、単語の位置を使用して計算されます。
Cornell Movie Dialog コーパス、チャットボットの精度テーブルでトレーニングされています。
CONLL English dependency のトレーニングを受けています。トレーニングにはトレーニング セットを、テストには開発セットとテスト セットを使用します。
Stackpointer と Biaffine-attention は、元々は Pytorch で書かれた https://github.com/XuezheMax/NeuroNLP2 からのものです。
15 エポック後のアーク、タイプ、およびルートの精度のみに基づく精度。
CONLL NERでトレーニングを受けています。
CNN ニュース データセットでトレーニングされました。
精度はROUGE-2に準拠。
シェイクスピア データセットでトレーニングされました。
Tatoeba データセットでトレーニングされました。
英語とフランス語、ニューラル機械翻訳の精度テーブルのトレーニングを受けています。
1.basic-seq2seq 2.lstm-seq2seq 3.gru-seq2seq 4.basic-seq2seq-contrib-greedy 5.lstm-seq2seq-contrib-greedy 6.gru-seq2seq-contrib-greedy 7.basic-birnn-seq2seq 8.lstm-birnn-seq2seq 9.gru-birnn-seq2seq 10.basic-birnn-seq2seq-contrib-greedy 11.lstm-birnn-seq2seq-contrib-greedy 12.gru-birnn-seq2seq-contrib-greedy 13.basic-seq2seq-luong 14.lstm-seq2seq-luong 15.gru-seq2seq-luong 16.basic-seq2seq-バダナウ 17.lstm-seq2seq-バダナウ 18.gru-seq2seq-バダナウ19.basic-birnn-seq2seq-bahdanau 20.lstm-birnn-seq2seq-bahdanau 21.gru-birnn-seq2seq-bahdanau 22.basic-birnn-seq2seq-luong 23.lstm-birnn-seq2seq-luong 24.gru-birnn-seq2seq-luong 25.lstm-seq2seq-contrib-greedy-luong 26.gru-seq2seq-contrib-greedy-luong 27.lstm-seq2seq-contrib-greedy-bahdanau 28.gru-seq2seq-contrib-貪欲なバダナウ29.lstm-seq2seq-contrib-beam-luong 30.gru-seq2seq-contrib-beam-luong 31.lstm-seq2seq-contrib-beam-bahdanau 32.gru-seq2seq-contrib-beam-bahdanau 33.lstm-birnn-seq2seq-contrib-beam-bahdanau 34.lstm-birnn-seq2seq-contrib-beam-luong 35.gru-birnn-seq2seq-contrib-beam-bahdanau 36.gru-birnn-seq2seq-contrib-beam -ルオン37.lstm-birnn-seq2seq-contrib-beam-luongmonotonic 38.gru-birnn-seq2seq-contrib-beam-luongmonotonic 39.lstm-birnn-seq2seq-contrib-beam-bahdanamonotonic 40.gru-birnn-seq2seq-contrib-beam-bahdanaumonotic 41.residual-lstm-seq2seq-greedy-luong 42.residual-gru-seq2seq-greedy-luong 43.residual-lstm-seq2seq-greedy-bahdanau 44.residual-gru-seq2seq-greedy-bahdanau 45.memory-network-lstm-decoder-greedy 46.google-nmt 47.transformer-encoder-transformer-decoder 48.transformer-encoder-lstm-decoder-greedy 49.bertmulti language -encoder-bert多言語デコーダー50.bert多言語エンコーダー-lstm-デコーダー 51.bert多言語エンコーダー-トランスフォーマー-デコーダー 52.bertenglish-エンコーダー-トランスフォーマー-デコーダー 53.トランスフォーマー-t2t-2gpu
CONLL POS のトレーニングを受けました。
bAbI データセットでトレーニングされました。
Cornell Movie--Dialogs Corpus でトレーニング済み
トロントの音声データセットでトレーニングされました。
SQUAD データセットでトレーニングされました。
{ "exact_match" : 77.57805108798486 , "f1" : 86.18327335287402 }
英語の見出し語化についてトレーニングを受けています。
英語の感情データセット、テキスト分類の精度テーブルでトレーニングされました。
MNLIでトレーニングを受けています。
トロントの音声データセットでトレーニングされました。
マレーシアのニュースについて研修しました。
英語の感情データセットから抽出。
ランダムな本で訓練を受けました。
英語の感情データセットでトレーニングされました。
トロントの音声データセットでトレーニングされました。