experiments genai
1.0.0
Liste des expériences sur l'écosystème Gen AI
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
Installez et exécutez le modèle LLM en local à l'aide d'Ollama. Visitez la page de téléchargement (https://ollama.com/
2.1 Llama2 - exécutez ollama run llama2
sur le terminal. Visitez pour plus d’informations sur lama2.
2.2 Codellama - exécutez ollama run codellama
sur le terminal. Visitez pour plus d’informations sur codellama.
Facultatif, requis uniquement lors de l'exécution d'exemples Milvus
Assurez-vous que le magasin de vecteurs Milvus est opérationnel avant d’exécuter les exemples dépendants de Milvus.
Milvus
Vector. Exécutez sudo docker compose -f docker-compose-milvus.yml up -d
à partir de la racine du projet. Nom du fichier/dossier | Cadre(s) | Optimisation/Réglage fin | Pipeline |
---|---|---|---|
rag_pdf_1.py | LlamaIndex + Milvus | CHIFFON | Charger le répertoire PDF, extraire les données et l'index de manière naïve, intégrer l'index dans le magasin vectoriel, requêtes utilisateur |
rag_pdf_2.py | LamaIndex | CHIFFON | Charger le répertoire PDF, extraire les données avec la fenêtre Phrase, intégrer l'index dans le stockage local, requêtes utilisateur |
rag_pdf_3.py | LlamaIndex + Milvus | CHIFFON | Charger le répertoire PDF, extraire les données avec la fenêtre Phrase, intégrer l'index dans le magasin vectoriel, requêtes utilisateur |
rag_pdf_4.py | LamaIndex + Chroma | CHIFFON | À venir |
rag_pdf_5.py | LamaIndex + Pomme de Pin | CHIFFON | À venir |
rag_pdf_6.py | LlamaIndex + Qdrant | CHIFFON | À venir |
rag_pdf_7.py | LlamaIndex + Ray + Milvus | CHIFFON | À venir |
rag_pdf_8.py | LlamaIndex + Ray + Milvus | CHIFFON | À venir |
python3 rag_pdf_1.py