Implémenter RAG (en utilisant LangChain et PostgreSQL) pour améliorer la précision et la pertinence des résultats LLM
Ce référentiel contient le code source correspondant au billet de blog Comment utiliser la génération augmentée de récupération (RAG) pour les applications Go qui explique comment exploiter le langage de programmation Go pour utiliser les bases de données vectorielles et des techniques telles que la génération augmentée de récupération (RAG) avec langchaingo.
Les grands modèles linguistiques (LLM) et d'autres modèles de base ont été formés sur un vaste corpus de données, leur permettant de bien fonctionner dans de nombreuses tâches de traitement du langage naturel (NLP). Mais l’une des limites les plus importantes est que la plupart des modèles de base et des LLM utilisent un ensemble de données statiques qui ont souvent un seuil de connaissances spécifique (par exemple, janvier 2023).
RAG (Retrieval Augmented Generation) améliore les LLM en récupérant dynamiquement des informations externes pendant le processus de génération de réponse, élargissant ainsi la base de connaissances du modèle au-delà de ses données de formation d'origine. Les solutions basées sur RAG intègrent un magasin de vecteurs qui peut être indexé et interrogé pour récupérer les informations les plus récentes et les plus pertinentes, étendant ainsi les connaissances du LLM au-delà de son seuil de formation. Lorsqu'un LLM équipé de RAG doit générer une réponse, il interroge d'abord un magasin de vecteurs pour trouver des informations pertinentes et à jour liées à la requête. Ce processus garantit que les résultats du modèle ne sont pas uniquement basés sur ses connaissances préexistantes, mais qu'ils sont complétés par les informations les plus récentes, améliorant ainsi l'exactitude et la pertinence de ses réponses.
Voir CONTRIBUTION pour plus d'informations.
Cette bibliothèque est sous licence MIT-0. Voir le fichier LICENCE.