Para começar o projeto, você precisa ter acesso a uma API para um LLM. Atualmente são suportados os LLMs do projeto GenAI e ChatGPT da OpenAI.
Copie config.ini.sample
para config.ini
e preencha os detalhes apropriados. Observe que se você quiser usar apenas um provedor LLM, poderá deixar as configurações de exemplo para o outro.
Instruções sobre como começar a usar a pilha GenAI são fornecidas aqui: https://github.com/docker/genai-stack
Observe que para usar a GPU no Linux, você precisa atualizar o arquivo docker-compose seguindo as instruções aqui: docker/genai-stack#62 (comentário)
O LLM é solicitado a fornecer categorias para uma amostra dos documentos no repositório e então estas são consolidadas em uma hierarquia. As categorias são criadas no Repositório usando a API v1.
A árvore de categorias é fornecida ao LLM junto com o conteúdo do documento. O LLM é solicitado a selecionar categorias apropriadas para o conteúdo e, em seguida, a API v1 é usada para atribuí-las.
Instruções detalhadas disponíveis no resumo