Das LLAMA_RAG_SYSTEM ist ein RA-System (RABUST-ARRAVEAL-AUGMENTED-Generation), mit dem Benutzer interaktiv auf Benutzeranfragen mit reichhaltigen, kontextbezogenen Antworten reagiert. Dieses System erstellt mit dem LLAMA -Modell und Ollama kann dieses System verschiedene Aufgaben erledigen, einschließlich der Beantwortung allgemeiner Fragen, der Zusammenfassung von Inhalten und dem Extrahieren von Informationen aus hochgeladenen PDF -Dokumenten. Die Architektur verwendet Chromadb für effiziente Dokumenteneinbettung und Abruf und enthält gleichzeitig Web-Scraping-Funktionen, um aktuelle Informationen aus dem Internet zu erhalten.
Hier ist ein Blick auf die Gradio App -Schnittstelle:
? Bitte beachten Sie: Dieses Projekt befindet sich derzeit in der Entwicklung. Ihr Feedback und Ihre Beiträge sind willkommen!
OLLAMA ist aus mehreren Gründen eine hervorragende Option, um maschinelles Lernen vor Ort auszuführen:
Das Projekt ist wie folgt organisiert:
project/
├── core/
│ ├── embedding.py # Embedding-related functionality
│ ├── document_utils.py # Functions to handle document loading and processing
│ ├── query.py # Query document functionality
│ ├── generate.py # Response generation logic
│ ├── web_scrape.py # Web scraping functionality
│
├── scripts/
│ ├── run_flask.py # Script to run Flask API
│ ├── run_gradio.py # Script to run Gradio interface
│
├── chromadb_setup.py # ChromaDB setup and connection
│
├── README.md # Project documentation
Befolgen Sie die folgenden Schritte, um das Lama_Rag_System einzurichten:
Klonen Sie das Repository:
git clone https://github.com/NimaVahdat/Llama_RAG_System.git
cd Llama_RAG_System
Stellen Sie sicher, dass Chromadb und alle anderen erforderlichen Dienste nach Bedarf ausgeführt werden.
Führen Sie den folgenden Befehl aus, um die Flask -API zu starten:
python -m scripts.run_flask
Um die Gradio -Schnittstelle zu starten, führen Sie aus:
python -m scripts.run_gradio
Nach dem Ausführen eines der eines Skripts können Sie über die bereitgestellte Webschnittstelle mit dem System interagieren.
Beiträge sind willkommen! Wenn Sie Vorschläge für Verbesserungen oder Funktionen haben, geben Sie bitte das Repository aus und senden Sie eine Pull -Anfrage.
Dieses Projekt ist unter der MIT -Lizenz lizenziert - Einzelheiten finden Sie in der Lizenzdatei.
Für Anfragen oder Unterstützung kontaktieren Sie mich bitte.