Pour démarrer le projet, vous devez avoir accès à une API pour un LLM. Actuellement, les LLM du projet GenAI et ChatGPT d'OpenAI sont pris en charge.
Copiez config.ini.sample
dans config.ini
, puis remplissez les détails appropriés. Notez que si vous souhaitez utiliser un seul fournisseur LLM, vous pouvez laisser les exemples de paramètres pour l'autre.
Les instructions sur la façon de démarrer avec la pile GenAI sont fournies ici : https://github.com/docker/genai-stack
Notez que pour utiliser le GPU sous Linux alors vous devez mettre à jour le fichier docker-compose en suivant les instructions ici : docker/genai-stack#62 (commentaire)
Il est demandé au LLM de fournir des catégories pour un échantillon de documents dans le référentiel, puis ceux-ci sont consolidés dans une hiérarchie. Les catégories sont créées dans le référentiel à l'aide de l'API v1.
L'arborescence des catégories est fournie au LLM avec le contenu du document. Il est demandé au LLM de sélectionner les catégories appropriées pour le contenu, puis l'API v1 est utilisée pour les attribuer.
Instructions détaillées disponibles dans le résumé