RAG utilisant Llama3, Langchain et ChromaDB
Ce projet utilise Llama3 Langchain et ChromaDB pour établir un système de génération augmentée de récupération (RAG). Ce système vous permet de poser des questions sur vos documents, même si les informations n'étaient pas incluses dans les données de formation du Large Language Model (LLM). La génération augmentée de récupération fonctionne en effectuant d'abord une étape de récupération lorsqu'une question lui est présentée. Cette étape récupère les documents pertinents à partir d'une base de données vectorielles spéciale, où les documents ont été indexés.
Le modèle Llama3 pré-entraîné est affiné avec plus de 15 000 milliards de jetons et possède 8 à 70 milliards de paramètres, ce qui en fait l'un des modèles open source les plus puissants disponibles. Il offre des avancées significatives par rapport au modèle précédent Llama2.
Ce projet a mis en œuvre avec succès une solution de génération augmentée de récupération (RAG) en tirant parti de Langchain, ChromaDB et Llama3 comme LLM. Pour évaluer les performances du système, nous avons utilisé la loi européenne sur l'IA de 2023. Les résultats ont démontré que le modèle RAG fournit des réponses précises aux questions posées sur la loi.
Travaux futurs ⚡
Pour améliorer encore la solution, nous nous concentrerons sur l’affinement de la mise en œuvre de RAG. Cela impliquera d’optimiser l’intégration de documents et d’explorer l’utilisation d’architectures RAG plus complexes.
??META LLAMA3 GENAI Cas d'utilisation du monde réel Guides de mise en œuvre de bout en bout⚡
Affinez efficacement Llama 3 avec PyTorch FSDP et Q-Lora : Guide de mise en œuvre
Déployer Llama 3 sur Amazon SageMaker : Guide de mise en œuvre
RAG utilisant Llama3, Langchain et ChromaDB : Guide d'implémentation 1
Inviter Llama 3 comme un pro : Guide de mise en œuvre
Testez Llama3 avec quelques questions mathématiques : Guide d'implémentation
Llama3, s'il vous plaît, écrivez du code pour moi : Guide d'implémentation
Exécutez LLLAMA-3 70B LLM avec des points de terminaison NVIDIA sur Amazing Streamlit UI : Guide de mise en œuvre
Llama 3 ORPO Fine Tuning : Guide de mise en œuvre
LLaMA3-Quantisation de Meta : Guide d'implémentation
Finetune Llama3 à l'aide de QLoRA : Guide de mise en œuvre
Inférence Llama3 Qlora : Guide de mise en œuvre
Beam_Llama3-8B-finetune_task : Guide d'implémentation
Llama-3 Finetuning sur un ensemble de données personnalisé avec Unsloth : Guide de mise en œuvre
RAG utilisant Llama3, Ollama et ChromaDB : Guide d'implémentation
Cas d'utilisation de Llama3 : guide de mise en œuvre
RAG utilisant Ro-LLM, Langchain et ChromaDB : Guide d'implémentation