Rags ist eine stromlitische App, mit der Sie mithilfe der natürlichen Sprache eine Lag -Pipeline aus einer Datenquelle erstellen können.
Sie können Folgendes tun:
Dieses Projekt ist von GPTs inspiriert, die von OpenAI eingeführt werden.
Klonen Sie dieses Projekt, gehen Sie in den Ordner rags
-Projekts. Wir empfehlen, eine virtuelle Umwelt für Abhängigkeiten zu erstellen ( python3 -m venv .venv
).
poetry install --with dev
Standardmäßig verwenden wir OpenAI sowohl für den Bauherren als auch für den generierten RAG -Agenten. Fügen Sie .streamlit/secrets.toml
im Home -Ordner hinzu.
Dann setzen Sie Folgendes ein:
openai_key = "<openai_key>"
Führen Sie dann die App aus der "Homepage" -Datei aus.
streamlit run 1_?_Home.py
HINWEIS : Wenn Sie die Version von Rags aktualisiert haben und beim Start Probleme mit Problemen treffen, müssen Sie möglicherweise den cache
-Ordner in Ihrem Home -Verzeichnis löschen (wir haben möglicherweise Bruchänderungen in der gespeicherten Datenstruktur zwischen den Versionen eingeführt).
Die App enthält die folgenden Abschnitte, die den oben aufgeführten Schritten entsprechen.
Dies ist der Abschnitt, in dem Sie eine Lag -Pipeline bauen, indem Sie den "Builder Agent" anweisen. Um eine Lag -Pipeline einzurichten, benötigen Sie die folgenden Komponenten:
Dieser Abschnitt enthält die vom "Builder Agent" im vorherigen Abschnitt erzeugten Lag -Parameter. In diesem Abschnitt haben Sie eine Benutzeroberfläche, in der die generierten Parameter vorgestellt werden, und haben die volle Freiheit, sie nach Bedarf manuell zu bearbeiten/zu ändern.
Derzeit ist der Parametersatz wie folgt:
Wenn Sie die Parameter manuell ändern, können Sie die Schaltfläche "Agent aktualisieren" drücken, um den Agenten zu aktualisieren.
If you don't see the `Update Agent` button, that's because you haven't created the agent yet. Please go to the previous "Home" page and complete the setup process.
Wir können immer mehr Parameter hinzufügen, um dies "fortgeschrittener" zu gestalten, dachten jedoch, dies wäre ein guter Ausgangspunkt.
Sobald Ihr Rag -Agent erstellt wurde, haben Sie Zugriff auf diese Seite.
Dies ist eine Standard -Chatbot -Schnittstelle, in der Sie den RAG -Agenten abfragen können, und es wird Fragen über Ihre Daten beantworten.
Es kann die richtigen Lag-Tools (entweder Top-K-Vektorsuche oder optional Zusammenfassung) auswählen, um die Abfrage zu erfüllen.
Standardmäßig verwendet der Builder Agent OpenAI. Dies ist in der Datei core/builder_config.py
definiert.
Sie können dies an die gewünschten LLM anpassen (ein Beispiel für Anthropic).
Beachten Sie, dass GPT-4-Varianten die zuverlässigsten Ergebnisse in Bezug auf den tatsächlich konstruierten Agenten liefern (wir konnten Claude nicht zum Laufen bringen).
Sie können die Konfiguration entweder über natürliche Sprache oder manuell sowohl für das Einbettungsmodell als auch für LLM einstellen.
Probleme? Bitte stellen Sie ein GitHub -Problem ein oder treten Sie unserer Zwietracht bei.
Diese App wurde mit Llamaindex Python gebaut.
Sehen Sie sich hier in unserem Start -Blog -Beitrag an.