Aufschlussvideo für Voice-Over
Verwaltete Bereitstellung durch das Langfuse-Team, großzügige Freistufe (Hobbyplan), keine Kreditkarte erforderlich.
»Langfuse Cloud
# Clone repository
git clone https://github.com/langfuse/langfuse.git
cd langfuse
# Run server and database
docker compose up -d
→ Erfahren Sie mehr über die Bereitstellung lokal
Langfuse ist einfach zu veranstalten und auf dem Laufenden zu bleiben. Derzeit sind nur ein einzelner Docker -Container und eine Postgres -Datenbank erforderlich. → Self -Hosting -Anweisungen
Vorlagenbereitstellungen: Eisenbahn, GCP, AWS, Azure, Kubernetes und andere
Sie benötigen einen öffentlichen und geheimen Schlüssel in Langfuse, um loszulegen. Melden Sie sich hier an und finden Sie sie in Ihren Projekteinstellungen.
HINWEIS: Wir empfehlen, unsere vollständig asynchronisierte, eingeführte SDKs zu verwenden, mit denen Sie jede LLM -Anwendung mit jedem zugrunde liegenden Modell instrumentieren können. Sie sind in Python (Dekoratoren) und JS/TS erhältlich. Die SDKs werden immer die am besten vorgestellte und stabilste Art sein, Daten in Langfuse aufzunehmen.
Siehe → QuickStart, um Langfuse zu integrieren.
Integration | Unterstützung | Beschreibung |
---|---|---|
SDK | Python, JS/TS | Manuelle Instrumentierung mit den SDKs für die volle Flexibilität. |
Openai | Python, JS/TS | Automatisierte Instrumentierung mit Drop-In-Austausch von OpenAI SDK. |
Langchain | Python, JS/TS | Automatisierte Instrumente, indem Sie den Rückruf -Handler an die Anwendung von Langchain weitergeben. |
Llamaindex | Python | Automatisierte Instrumentierung über das Lamaindex -Rückrufsystem. |
Heuhaufen | Python | Automatisierte Instrumente über das Haystack -Inhaltsverfolgungssystem. |
Litellm | Python, JS/TS (nur Proxy) | Verwenden Sie einen beliebigen LLM als Ersatzabfall für GPT. Verwenden Sie Azure, Openai, Cohere, Anthropic, Ollama, VllM, Sagemaker, Huggingface, Replicate (100+ LLMs). |
Vercel ai sdk | JS/TS | TypeScript-Toolkit, mit dem Entwickler AI-betriebene Anwendungen mit React, Next.js, Vue, Svelte, Node.js. erstellen sollen. |
API | Rufen Sie die öffentliche API direkt an. OpenAPI Spec verfügbar. |
Pakete in Langfuse integriert:
Name | Beschreibung |
---|---|
Lehrer | Bibliothek, um strukturierte LLM -Ausgänge zu erhalten (JSON, Pydantic) |
Schwierig | Open Source LLM App-Entwicklungsplattform mit No-Code Builder. |
Ollama | Führen Sie Open Source LLMs einfach auf Ihrer eigenen Maschine aus. |
Mirascope | Python Toolkit zum Erstellen von LLM -Anwendungen. |
Fluss | JS/TS No-Code Builder für angepasste LLM-Ströme. |
Langflow | Python-basierte UI für Langchain, die mit React-Flow entwickelt wurde, um eine mühelose Möglichkeit zum Experimentieren und Prototypen zu bieten. |
In der Reihenfolge der Präferenz ist der beste Weg, um mit uns zu kommunizieren:
Dieses Repository ist mit Ausnahme der ee
-Ordner MIT lizenziert. Weitere Informationen finden Sie unter Lizenz und Dokumente.
Holen Sie sich Routen , um Daten in nachgeschalteten Anwendungen zu verwenden (z. B. eingebettete Analyse). Sie können auch bequem über die SDKs (DOCS) auf sie zugreifen.
Wir nehmen Datensicherheit und Privatsphäre ernst. Weitere Informationen finden Sie in unserer Seite für Sicherheit und Datenschutz.
Standardmäßig meldet Langfuse automatisch grundlegende Nutzungsstatistiken von selbst gehosteten Instanzen an einem zentralisierten Server (Posthog).
Dies hilft uns zu:
Keine der Daten wird an Dritte weitergegeben und enthält keine sensiblen Informationen. Wir möchten darüber sehr transparent sein und Sie können die genauen Daten finden, die wir hier sammeln.
Sie können sich anmelden, indem Sie TELEMETRY_ENABLED=false
einstellen.