NLP-Models-Tensorflow ,收集针对 NLP 问题的机器学习和张量流深度学习模型, Jupyter Notebooks 内的代码简化 100% 。
原始实现非常复杂,而且对初学者来说并不友好。所以我尝试简化其中大部分内容。此外,还有大量尚未实施的发行文件。因此,请随意将其用于您自己的研究!
我将附上我没有从头开始实现的模型的 github 存储库,基本上我会复制、粘贴并修复这些代码以解决已弃用的问题。
仅限 Tensorflow 1.13 及以上版本,不包括 2.X 版本。 1.13 < 张量流 < 2.0
pip install -r requirements.txt
接受印度新闻培训。
准确度仅基于 10 个时期,使用单词位置计算。
在康奈尔电影对话语料库、聊天机器人中的准确性表上进行了培训。
接受过 CONLL 英语依赖性培训。训练集用于训练,开发集和测试集用于测试。
Stackpointer 和 Biaffine-attention 最初来自 https://github.com/XuezheMax/NeuroNLP2,用 Pytorch 编写。
仅基于 15 个周期后的弧、类型和根精度的精度。
在 CONLL NER 上接受过培训。
在 CNN 新闻数据集上进行训练。
准确度基于 ROUGE-2。
在莎士比亚数据集上进行训练。
在 Tatoeba 数据集上进行训练。
接受过英语-法语、神经机器翻译准确性表的培训。
1.basic-seq2seq 2.lstm-seq2seq 3.gru-seq2seq 4.basic-seq2seq-contrib-greedy 5.lstm-seq2seq-contrib-greedy 6.gru-seq2seq-contrib-greedy 7.basic-birnn-seq2seq 8.lstm-birnn-seq2seq 9.gru-birnn-seq2seq 10.basic-birnn-seq2seq-contrib-贪婪 11.lstm-birnn-seq2seq-contrib-贪婪 12.gru-birnn-seq2seq-contrib-贪婪 13.basic -seq2seq-luong 14.lstm-seq2seq-luong 15.gru-seq2seq-luong 16.basic-seq2seq-bahdanau 17.lstm-seq2seq-bahdanau 18.gru-seq2seq-bahdanau 19.basic-birnn-seq2seq-bahdanau 20.lstm-birnn-seq2seq-bahdanau 21.gru-birnn-seq2seq-bahdanau 22.basic-birnn-seq2seq-luong 23.lstm-birnn-seq2seq-luong 24.gru-birnn-seq2seq-luong 25.lstm-seq2seq-contrib-greedy-luong 26.gru-seq2seq-contrib-greedy-luong 27.lstm-seq2seq-contrib-greedy-bahdanau 28.gru-seq2seq-contrib-greedy-bahdanau 29.lstm-seq2seq-贡献梁良30.gru-seq2seq-contrib-beam-luong 31.lstm-seq2seq-contrib-beam-bahdanau 32.gru-seq2seq-contrib-beam-bahdanau 33.lstm-birnn-seq2seq-contrib-beam-bahdanau 34.lstm-birnn-seq2seq-contrib-beam-luong 35.gru-birnn-seq2seq-contrib-beam-bahdanau 36.gru-birnn-seq2seq-contrib-beam-luong 37.lstm-birnn-seq2seq-contrib-beam -luong单调38.gru-birnn-seq2seq-contrib-beam-luongmonotic 39.lstm-birnn-seq2seq-contrib-beam-bahdanaumonotonic 40.gru-birnn-seq2seq-contrib-beam-bahdanaumonotic 41.residual-lstm-seq2seq-greedy-luong 42.residual-gru-seq2seq-greedy-luong 43.residual-lstm-seq2seq-greedy-bahdanau 44.residual-gru-seq2seq-greedy-bahdanau 45.内存网络-lstm-解码器-greedy 46.google-nmt 47 .transformer-encoder-transformer-decoder 48.transformer-encoder-lstm-decoder-greedy 49.bertmultilingual-encoder-bertmultilingual-decoder 50.bertmultilingual-encoder-lstm-decoder 51.bertmultilingual-encoder-transformer-decoder 52.bertenglish-encoder-transformer-decoder 53.transformer -t2t-2gpu
接受过 CONLL POS 培训。
在 bAbI 数据集上进行训练。
接受康奈尔大学电影对话语料库培训
在多伦多语音数据集上进行训练。
在 SQUAD 数据集上接受训练。
{ "exact_match" : 77.57805108798486 , "f1" : 86.18327335287402 }
接受过英语词形还原培训。
在英语情感数据集、文本分类准确度表上进行训练。
接受过 MNLI 培训。
在多伦多语音数据集上进行训练。
接受马来西亚新闻培训。
从英语情感数据集中提取。
在随机书籍上进行训练。
在英语情感数据集上进行训练。
在多伦多语音数据集上进行训练。