Dokumentation
Der Zweck dieses Pakets besteht darin, ein praktisches Frage-Antwort-System (RAG) mit einer einfachen YAML-basierten Konfiguration anzubieten, das die Interaktion mit mehreren Sammlungen lokaler Dokumente ermöglicht. Besonderes Augenmerk wird auf Verbesserungen in verschiedenen Komponenten des Systems zusätzlich zu grundlegenden LLM-basierten RAGs gelegt – bessere Dokumentenanalyse, Hybridsuche, HyDE-fähige Suche, Chat-Verlauf, Deep-Linking, Neubewertung, die Möglichkeit, Einbettungen anzupassen und mehr . Das Paket ist so konzipiert, dass es mit benutzerdefinierten Large Language Models (LLMs) funktioniert – ob von OpenAI oder lokal installiert.
Unterstützte Formate
.md
– Unterteilt Dateien nach logischen Komponenten wie Überschriften, Unterüberschriften und Codeblöcken. Unterstützt zusätzliche Funktionen wie das Bereinigen von Bildlinks, das Hinzufügen benutzerdefinierter Metadaten und mehr..pdf
– MuPDF-basierter Parser..docx
– benutzerdefinierter Parser, unterstützt verschachtelte Tabellen.Unstructured
Präprozessor unterstützt:Unterstützung für das Parsen von Tabellen über Open-Source-Gmft (https://github.com/conjuncts/gmft) oder Azure Document Intelligence.
Optionale Unterstützung für das Parsen von Bildern mithilfe der Gemini-API.
Unterstützt mehrere Dokumentensammlungen und das Filtern der Ergebnisse nach einer Sammlung.
Eine Möglichkeit, die Einbettungen schrittweise zu aktualisieren, ohne dass die gesamte Dokumentbasis neu indiziert werden muss.
Erzeugt dichte Einbettungen aus einem Dokumentenordner und speichert sie in einer Vektordatenbank (ChromaDB).
multilingual-e5-base
.instructor-large
.Erzeugt spärliche Einbettungen mit SPLADE (https://github.com/naver/splade), um eine Hybridsuche (spärlich + dicht) zu ermöglichen.
Unterstützt die „Retrieve and Re-Rank“-Strategie für die semantische Suche, siehe hier.
ms-marco-MiniLM
Cross-Encoder werden auch modernere bge-reranker
unterstützt.Unterstützt HyDE (Hypothetical Document Embeddings) – siehe hier.
Unterstützung für Mehrfachabfragen, inspiriert von RAG Fusion
– https://towardsdatascience.com/forget-rag-the-future-is-rag-fusion-1147298d8ad1
Unterstützt optionalen Chatverlauf mit Fragenkontextualisierung
Ermöglicht die Interaktion mit eingebetteten Dokumenten und unterstützt intern die folgenden Modelle und Methoden (einschließlich lokal gehosteter):
Interoperabilität mit LiteLLM + Ollama über OpenAI API, unterstützt Hunderte verschiedener Modelle (siehe Modellkonfiguration für LiteLLM)
Weitere Funktionen
Dokumentation durchsuchen