si vous pouvez me soutenir sur Arxiv, je serais plus qu'heureux https://arxiv.org/auth/endorse?x=FRBB89 merci Ce référentiel est conçu pour collecter plusieurs implémentations d'approches abstractives pour aborder la synthèse de texte, pour différents langues (hindi, amharique, anglais et bientôt l'arabe)
Si vous avez trouvé ce projet utile, pensez à citer notre travail, cela signifierait vraiment beaucoup pour moi.
@INPROCEEDINGS{9068171,
author={A. M. {Zaki} and M. I. {Khalil} and H. M. {Abbas}},
booktitle={2019 14th International Conference on Computer Engineering and Systems (ICCES)},
title={Deep Architectures for Abstractive Text Summarization in Multiple Languages},
year={2019},
volume={},
number={},
pages={22-27},}
@misc{zaki2020amharic,
title={Amharic Abstractive Text Summarization},
author={Amr M. Zaki and Mahmoud I. Khalil and Hazem M. Abbas},
year={2020},
eprint={2003.13721},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
il est conçu pour fonctionner simplement sur Google Colab, dans un seul ordinateur portable, vous n'aurez donc besoin que d'une connexion Internet pour exécuter ces exemples sans avoir besoin d'une machine puissante, donc tous les exemples de code seraient au format Jupiter, et vous n'en avez pas besoin. Nous n'avons pas besoin de télécharger des données sur votre appareil lorsque nous connectons ces ordinateurs portables Jupiter à Google Drive.
Ce dépôt a été expliqué dans une série de blogs
Essayez ce résumé de texte via ce site Web (eazymind), qui vous permet de résumer votre texte via
curl -X POST
http://eazymind.herokuapp.com/arabic_sum/eazysum
-H 'cache-control: no-cache'
-H 'content-type: application/x-www-form-urlencoded'
-d "eazykey={eazymind api key}&sentence={your sentence to be summarized}"
pip install eazymind
from eazymind.nlp.eazysum import Summarizer
#---key from eazymind website---
key = "xxxxxxxxxxxxxxxxxxxxx"
#---sentence to be summarized---
sentence = """(CNN)The White House has instructed former
White House Counsel Don McGahn not to comply with a subpoena
for documents from House Judiciary Chairman Jerry Nadler,
teeing up the latest in a series of escalating oversight
showdowns between the Trump administration and congressional Democrats."""
summarizer = Summarizer(key)
print(summarizer.run(sentence))
contient 3 modèles différents qui implémentent le concept d'avoir un réseau seq2seq avec une attention particulière en ajoutant également des concepts comme avoir une représentation de mots riche en fonctionnalités. Ce travail est une continuation de ces incroyables dépôts
est une modification de https://github.com/Currie32/Text-Summarization-with-Amazon-Reviews seq2seq de David Currie
une modification de https://github.com/dongjun-Lee/text-summarization-tensorflow
une modification du modèle 2.ipynb en utilisant les concepts de http://www.aclweb.org/anthology/K16-1028
Un dossier contient les résultats des deux modèles, à partir d'échantillons de texte de validation au format zaksum, qui combine tous les résultats.
une modification de https://github.com/thomasschmied/Text_Summarization_with_Tensorflow/blob/master/summarizer_amazon_reviews.ipynb
c'est une continuation du travail incroyable de https://github.com/abisee/pointer-generator https://arxiv.org/abs/1704.04368 cette implémentation utilise le concept d'avoir un réseau générateur de pointeurs pour diminuer certains problèmes qui apparaissent avec le réseau seq2seq normal
utilise un générateur de pointeurs avec seq2seq avec attention, il est construit en utilisant python2.7
construit par python3 pour évaluation
je vais encore travailler sur la mise en œuvre du mécanisme de couverture, il y a tellement de travail à faire si Dieu le veut.
cette implémentation est une continuation du travail incroyable effectué par https://github.com/yaserkl/RLSeq2Seq https://arxiv.org/abs/1805.09461
@article{keneshloo2018deep,
title={Deep Reinforcement Learning For Sequence to Sequence Models},
author={Keneshloo, Yaser and Shi, Tian and Ramakrishnan, Naren and Reddy, Chandan K.},
journal={arXiv preprint arXiv:1805.09461},
year={2018}
}
il s'agit d'une bibliothèque pour créer plusieurs approches en utilisant l'apprentissage par renforcement avec seq2seq, j'ai rassemblé leur code pour l'exécuter dans un notebook Jupiter et pour accéder à Google Drive conçu pour python 2.7
construit par python3 pour évaluation