Implemente RAG (usando LangChain e PostgreSQL) para melhorar a precisão e relevância dos resultados do LLM
Este repositório contém o código-fonte correspondente à postagem do blog Como usar Retrieval Augmented Generation (RAG) para aplicativos Go, que aborda como aproveitar a linguagem de programação Go para usar bancos de dados vetoriais e técnicas como Retrieval Augmented Generation (RAG) com langchaingo.
Grandes modelos de linguagem (LLMs) e outros modelos básicos foram treinados em um grande corpus de dados, permitindo-lhes um bom desempenho em muitas tarefas de processamento de linguagem natural (PNL). Mas uma das limitações mais importantes é que a maioria dos modelos básicos e LLMs usam um conjunto de dados estáticos que muitas vezes tem um limite de conhecimento específico (por exemplo, janeiro de 2023).
RAG (Retrieval Augmented Generation) aprimora LLMs recuperando dinamicamente informações externas durante o processo de geração de resposta, expandindo assim a base de conhecimento do modelo além de seus dados de treinamento originais. As soluções baseadas em RAG incorporam um armazenamento de vetores que pode ser indexado e consultado para recuperar as informações mais recentes e relevantes, ampliando assim o conhecimento do LLM além do seu limite de treinamento. Quando um LLM equipado com RAG precisa gerar uma resposta, ele primeiro consulta um armazenamento de vetores para encontrar informações relevantes e atualizadas relacionadas à consulta. Este processo garante que os resultados do modelo não se baseiam apenas no conhecimento pré-existente, mas são aumentados com as informações mais recentes, melhorando assim a precisão e a relevância das suas respostas.
Consulte CONTRIBUINDO para obter mais informações.
Esta biblioteca está licenciada sob a licença MIT-0. Veja o arquivo LICENÇA.