Este repositorio contiene código y recursos relacionados con la recuperación de generación aumentada (RAG), una técnica diseñada para abordar el problema de la actualización de los datos en modelos de lenguaje grandes (LLM) como Llama-2. Los LLM a menudo carecen de conocimiento de los acontecimientos recientes y de información actualizada. RAG incorpora conocimiento externo de una base de conocimientos en las respuestas de LLM, lo que permite respuestas precisas y bien fundamentadas.
src
: Contiene el código fuente para implementar la técnica RAG y las interacciones con la base de conocimientos.data
: almacena conjuntos de datos y recursos relevantes para construir la base de conocimientos.db
: para administrar y almacenar incrustaciones de tokens o representaciones vectoriales para búsquedas en la base de conocimientos.requirements.txt
: paquetes de Python necesarios para ejecutar el código en este repositorio. RAG es un enfoque novedoso que combina capacidades de modelos de lenguaje grandes (LLM) con bases de conocimiento externas para mejorar la calidad y frescura de las respuestas generadas. Aborda el desafío de la información obsoleta recuperando conocimientos contextualmente relevantes de fuentes externas e incorporándolos al contenido generado por LLM.
Gradio es una biblioteca de Python que le ayuda a crear rápidamente interfaces de usuario para sus modelos de aprendizaje automático. Le permite implementar modelos rápidamente y hacerlos accesibles a través de una interfaz fácil de usar sin un desarrollo frontal extenso.
Se inicia una aplicación Gradio cuando se ejecuta el código gradio_chatbot.py
. Contiene elementos modificables como el modelo de incrustación, el modelo de generación, el mensaje del sistema editable y parámetros ajustables del LLM elegido.
Para utilizar el código de este repositorio, siga estos pasos:
Clona el repositorio en tu máquina local.
Navegue hasta el directorio del repositorio usando la línea de comando.
Instale los paquetes necesarios usando el siguiente comando:
pip install -r requirements.txt
Ejecute la aplicación chatbot usando el comando:
python src/gradio_chatbot.py
Una vez que la aplicación Gradio esté activa, cargue un documento (pdf o csv), elija los modelos (incrustación y generación), ajuste los parámetros ajustables, juegue con el indicador del sistema y pregunte todo lo que necesite.