Repo präsentiert KI-Zusammenfassungstool.
Dieses Repo stellt ein einfaches, aber effektives Tool zur Dokumentenzusammenfassung vor. Es kann mit Klartext- und PDF-Dokumenten in jeder Sprache arbeiten, die vom zugrunde liegenden LLM unterstützt wird (standardmäßig Mistral).
Installieren Sie folgende Abhängigkeiten (unter macOS):
pip3 install -r requirements.txt
ausmistral-7b-openorca.Q5_K_M.gguf
aus dem Hugging Face TheBloke/Mistral-7B-OpenOrca-GGUF-Repo in das lokale models
herunter. Beachten Sie, dass Sie mit alternativen Modellen experimentieren können. Aktualisieren Sie einfach die Variablen MODEL_FILE
und MODEL_CONTEXT_WINDOW
in web-ui.py
und/oder Notebook.ipynb
.
Um die Web-Benutzeroberfläche auszuführen, führen Sie einfach python3 ./web-ui.py
im Repo-Ordner aus. Dadurch sollte die Web-UI-Schnittstelle im Browser geöffnet werden.
Das Tool kann auch als Jupyter Labs/Notebook verwendet werden, Sie öffnen Notebook.ipynb
in Jupyter Labs.
Abhängig von der Dokumentgröße arbeitet dieses Tool in den folgenden Modi:
Die gesamte Verarbeitung erfolgt lokal auf dem Computer des Benutzers.
mistral-7b-openorca.Q5_K_M.gguf
) hat etwa 5,1 GB.Relativ kleine bis mittlere Dokumente (einige Seiten) sollten in ein einzelnes Kontextfenster passen, was auf Apple MBP mit M1-Chip zu einer Verarbeitungszeit von etwa 40 Sekunden führt.
Keiner kennt das Problem.