Dans ce référentiel, je me penche sur la création d'un centre de partage de connaissances à partir de mes propres sources de données où les équipes peuvent obtenir des informations et des réponses en toute simplicité lors d'une conversation, en utilisant la technique RAG Q&A, avec la possibilité de compléter la manière dont les informations sont partagées au sein des deux. petites et grandes organisations.
En bref, RAG Q&A (Retrieval-Augmented Generation Question and Answering) est un cadre qui mélange des approches basées sur la récupération et basées sur la génération. Il utilise un outil de récupération pour trouver des informations pertinentes et, généralement, un LLM (Large Language Model) comme générateur pour créer des réponses contextuellement riches. Par définition, les LLM sont un type de modèle d'IA capable de comprendre et de générer un langage de type humain, formé sur de grandes quantités de données textuelles pour apprendre les modèles, les structures et le contexte du langage naturel.
J'ai créé un notebook en utilisant le modèle gratuit Llama-2–7b-chat-hf (avec une stratégie de quantification 4 bits) pour Google Colab, qui permet d'exécuter ce logiciel gratuitement, et un autre notebook en utilisant OpenAI chat-gpt-3.5-. modèle turbo LLM utilisant un abonnement OpenAI. Veuillez vous assurer d'installer la configuration requise si vous comptez utiliser la version locale.
Pour ce cas d'utilisation, les fichiers de documentation de démarque ont été récupérés à partir de trois sources de données différentes :
Ces documents ont été choisis car ils constituent un moyen typique pour les organisations de documenter et de préserver les connaissances de leurs projets.
Le chatbot final a extrait les connaissances avec précision, fournissant des réponses concises et pertinentes, tout en reliant les documents utilisés.