Neste repositório, aprofundo-me na criação de um centro de compartilhamento de conhecimento a partir de minhas próprias fontes de dados, onde as equipes podem obter insights e respostas com a facilidade de uma conversa, usando a técnica RAG Q&A, com potencial para completar a forma como as informações são compartilhadas dentro de ambos. pequenas e grandes organizações.
Resumindo, RAG Q&A (Retrieval-Augmented Generation Question and Answering) é uma estrutura que combina abordagens baseadas em recuperação e baseadas em geração. Ele emprega um recuperador para encontrar informações relevantes e, normalmente, um LLM (Large Language Model) como gerador para criar respostas contextualmente ricas. Por definição, os LLMs são um tipo de modelo de IA capaz de compreender e gerar linguagem semelhante à humana, treinado em grandes quantidades de dados de texto para aprender os padrões, estruturas e contexto da linguagem natural.
Fiz um notebook usando o modelo gratuito Llama-2–7b-chat-hf (com estratégia de quantização de 4 bits) para Google Colab, que permite rodar este software gratuitamente, e outro notebook usando o OpenAI chat-gpt-3.5- modelo turbo LLM usando uma assinatura OpenAI. Certifique-se de instalar os requisitos se for usar a versão local.
Para este caso de uso, os arquivos de documentação de markdown foram recuperados de três fontes de dados diferentes:
Esses documentos foram escolhidos por serem formas típicas de as organizações documentarem e preservarem o conhecimento de seus projetos.
O chatbot final extraiu o conhecimento com precisão, fornecendo respostas concisas e relevantes, ao mesmo tempo em que vinculava os documentos utilizados.