Repo présentant l'outil de synthèse de l'IA.
Ce référentiel présente un outil simple mais efficace pour la synthèse de documents. Il peut fonctionner avec des documents en texte brut et PDF dans n'importe quelle langue prise en charge par LLM sous-jacent (Mistral par défaut).
Installez les dépendances suivantes (sur macOS) :
pip3 install -r requirements.txt
mistral-7b-openorca.Q5_K_M.gguf
à partir du dépôt Hugging Face TheBloke/Mistral-7B-OpenOrca-GGUF dans le répertoire models
local. Notez que vous pouvez expérimenter avec des modèles alternatifs, mettez simplement à jour les variables MODEL_FILE
et MODEL_CONTEXT_WINDOW
dans web-ui.py
et/ou Notebook.ipynb
.
Pour exécuter Web UI, exécutez simplement python3 ./web-ui.py
dans le dossier repo. Cela devrait ouvrir l'interface de l'interface utilisateur Web dans le navigateur.
L'outil peut également être utilisé comme Jupyter Labs/Notebook, vous ouvrez le Notebook.ipynb
dans Jupyter Labs.
En fonction de la taille du document, cet outil fonctionne dans les modes suivants :
Tous les traitements sont effectués localement sur la machine de l'utilisateur.
mistral-7b-openorca.Q5_K_M.gguf
) a environ 5,1 Go.Les documents relativement petits à moyens (quelques pages) doivent tenir dans une seule fenêtre contextuelle, ce qui entraîne un temps de traitement d'environ 40 secondes sur Apple MBP avec puce M1.
Aucun ne connaît le problème.