Este proyecto construye una aplicación de respuesta de documento con modelos de idiomas grandes (LLM) como Falcon-7B y Dolly-V2-3b usando Langchain, la base de datos de vector de ChromAdB. Se implementa en Strewlit.
Enlace a la aplicación: https://document-question-uswering-kedarghule.streamlit.app/
Nota: Debido a problemas de memoria con Strewlit, la aplicación puede no funcionar a veces y dar un error. Esto se debe al límite de memoria de 1 GB por optimista. Aquí hay un video que muestra cómo funciona la aplicación: https://drive.google.com/file/d/1nkvdqdx1emwtzqhkyzu_2ijzgog-us8o/view?usp=shaarking
En la era actual de sobrecarga de información, las personas y las organizaciones se enfrentan al desafío de extraer eficientemente información relevante de grandes cantidades de datos textuales. Los motores de búsqueda tradicionales a menudo se quedan cortos para proporcionar respuestas precisas y conscientes de contexto a preguntas específicas planteadas por los usuarios. Como resultado, existe una creciente necesidad de técnicas avanzadas de procesamiento del lenguaje natural (PNL) para habilitar los sistemas precisos de respuesta de preguntas de documentos (DQA).
El objetivo de este proyecto es desarrollar una aplicación de respuesta a preguntas de documento impulsada por modelos de idiomas grandes (LLM), como Falcon-7B y Dolly-V2-3B, utilizando la plataforma Langchain y la base de datos de Vector ChromAdB. Al aprovechar las capacidades de LLMS, esta aplicación tiene como objetivo proporcionar a los usuarios respuestas precisas e integrales a sus preguntas dentro de un corpus de documentos determinado.
.txt
y archivos .docx
. Una vez cargado, el archivo .docx
se convierte en un archivo .txt
. Usando Langchain, el documento se carga usando TextLoader.