experiments genai
1.0.0
Liste der Experimente zum Gen AI-Ökosystem
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
Installieren und führen Sie das LLM-Modell lokal mit Ollama aus. Besuchen Sie die Download-Seite (https://ollama.com/).
2.1 Llama2 – führe ollama run llama2
auf dem Terminal aus. Weitere Informationen zu llama2 finden Sie hier.
2.2 Codellama – Ollama ausführen ollama run codellama
. Weitere Informationen zu Codellama finden Sie hier.
Optional, nur erforderlich, wenn Milvus-Beispiele ausgeführt werden
Stellen Sie sicher, dass der Milvus-Vektorspeicher betriebsbereit ist, bevor Sie Milvus-abhängige Beispiele ausführen.
Milvus
Vector Stores. Führen Sie sudo docker compose -f docker-compose-milvus.yml up -d
im Projektstammverzeichnis aus. Datei-/Ordnername | Framework(s) | Optimierung / FineTuning | Pipeline |
---|---|---|---|
rag_pdf_1.py | LlamaIndex + Milvus | LAPPEN | PDF-Verzeichnis laden, Daten und Index auf naive Weise extrahieren, Index in Vektorspeicher einbetten, Benutzerabfragen |
rag_pdf_2.py | LamaIndex | LAPPEN | PDF-Verzeichnis laden, Daten mit Satzfenster extrahieren, Index in lokalen Speicher einbetten, Benutzerabfragen |
rag_pdf_3.py | LlamaIndex + Milvus | LAPPEN | PDF-Verzeichnis laden, Daten mit Satzfenster extrahieren, Index in Vektorspeicher einbetten, Benutzerabfragen |
rag_pdf_4.py | LlamaIndex + Chroma | LAPPEN | Demnächst verfügbar |
rag_pdf_5.py | LamaIndex + Tannenzapfen | LAPPEN | Demnächst verfügbar |
rag_pdf_6.py | LlamaIndex + Qdrant | LAPPEN | Demnächst verfügbar |
rag_pdf_7.py | LlamaIndex + Ray + Milvus | LAPPEN | Demnächst verfügbar |
rag_pdf_8.py | LlamaIndex + Ray + Milvus | LAPPEN | Demnächst verfügbar |
python3 rag_pdf_1.py