Um mit dem Projekt beginnen zu können, benötigen Sie Zugriff auf eine API für ein LLM. Derzeit werden die LLMs aus dem GenAI-Projekt und ChatGPT von OpenAI unterstützt.
Kopieren Sie config.ini.sample
nach config.ini
und geben Sie dann die entsprechenden Details ein. Beachten Sie: Wenn Sie nur einen LLM-Anbieter nutzen möchten, können Sie die Beispieleinstellungen für den anderen belassen.
Anweisungen zum Einstieg in den GenAI-Stack finden Sie hier: https://github.com/docker/genai-stack
Beachten Sie, dass Sie zur Verwendung der GPU unter Linux die Docker-Compose-Datei aktualisieren müssen, indem Sie den Anweisungen hier folgen: docker/genai-stack#62 (Kommentar)
Der LLM wird gebeten, Kategorien für eine Stichprobe der Dokumente im Repository bereitzustellen und diese dann in einer Hierarchie zusammenzufassen. Die Kategorien werden im Repository mithilfe der v1-API erstellt.
Der Kategoriebaum wird dem LLM zusammen mit dem Inhalt des Dokuments bereitgestellt. Der LLM wird aufgefordert, geeignete Kategorien für den Inhalt auszuwählen, und dann wird die v1-API verwendet, um diese zuzuweisen.
Detaillierte Anweisungen finden Sie in der Zusammenfassung