En este repositorio, profundizo en la creación de un centro de intercambio de conocimientos a partir de mis propias fuentes de datos donde los equipos pueden obtener conocimientos y respuestas con la facilidad de una conversación, utilizando la técnica RAG Q&A, con el potencial de completar la forma en que se comparte la información dentro de ambos. organizaciones pequeñas y grandes.
En resumen, RAG Q&A (Preguntas y respuestas de generación aumentada de recuperación) es un marco que combina enfoques basados en la recuperación y en la generación. Emplea un recuperador para encontrar información relevante y, normalmente, un LLM (modelo de lenguaje grande) como generador para crear respuestas contextualmente ricas. Por definición, los LLM son un tipo de modelo de inteligencia artificial capaz de comprender y generar un lenguaje similar al humano, entrenado con grandes cantidades de datos de texto para aprender los patrones, estructuras y contexto del lenguaje natural.
Hice un cuaderno usando el modelo gratuito Llama-2–7b-chat-hf (con una estrategia de cuantificación de 4 bits) para Google Colab, que permite ejecutar este software de forma gratuita, y otro cuaderno usando OpenAI chat-gpt-3.5- modelo turbo LLM utilizando una suscripción OpenAI. Asegúrese de instalar los requisitos si va a utilizar la versión local.
Para este caso de uso, se recuperaron archivos de documentación de rebajas de tres fuentes de datos diferentes:
Se eligieron estos documentos porque son formas típicas en que las organizaciones documentan y preservan el conocimiento de sus proyectos.
El chatbot final extrajo conocimientos con precisión, proporcionando respuestas concisas y relevantes, al tiempo que vinculaba los documentos que utilizaba.