Para comenzar a ejecutar el proyecto, necesita tener acceso a una API para un LLM. Actualmente se admiten los LLM del proyecto GenAI y ChatGPT de OpenAI.
Copie config.ini.sample
a config.ini
y luego complete los detalles apropiados. Tenga en cuenta que si solo desea utilizar un proveedor de LLM, puede dejar la configuración de ejemplo para el otro.
Aquí se proporcionan instrucciones sobre cómo comenzar con la pila GenAI: https://github.com/docker/genai-stack
Tenga en cuenta que para usar la GPU en Linux, debe actualizar el archivo docker-compose siguiendo las instrucciones aquí: docker/genai-stack#62 (comentario)
Se solicita al LLM que proporcione categorías para una muestra de los documentos en el repositorio y luego estos se consolidan en una jerarquía. Las categorías se crean en el Repositorio utilizando la API v1.
El árbol de categorías se proporciona al LLM junto con el contenido del documento. Se le pide al LLM que seleccione categorías apropiadas para el contenido y luego se utiliza la API v1 para asignarlas.
Instrucciones detalladas disponibles en el resumen