Observabilité open source pour votre application LLM
Nouveau : Nos conventions sémantiques font désormais partie d'OpenTelemetry ! Rejoignez la discussion et aidez-nous à façonner l’avenir de l’observabilité LLM.
Vous recherchez la version JS/TS ? Découvrez OpenLLMetry-JS.
OpenLLMetry est un ensemble d'extensions construites sur OpenTelemetry qui vous offre une observabilité complète sur votre application LLM. Parce qu'il utilise OpenTelemetry sous le capot, il peut être connecté à vos solutions d'observabilité existantes - Datadog, Honeycomb et autres.
Il est construit et maintenu par Traceloop sous la licence Apache 2.0.
Le dépôt contient des instrumentations OpenTelemetry standard pour les fournisseurs LLM et les bases de données vectorielles, ainsi qu'un SDK Traceloop qui facilite le démarrage avec OpenLLMetry, tout en produisant des données OpenTelemetry standard qui peuvent être connectées à votre pile d'observabilité. Si vous disposez déjà d’OpenTelemetry instrumenté, vous pouvez simplement ajouter directement n’importe laquelle de nos instrumentations.
Le moyen le plus simple de commencer est d’utiliser notre SDK. Pour un guide complet, rendez-vous sur nos documents.
Installez le SDK :
pip installer traceloop-sdk
Ensuite, pour commencer à instrumenter votre code, ajoutez simplement cette ligne à votre code :
à partir de traceloop.sdk, importez TraceloopTraceloop.init()
C'est ça. Vous tracez maintenant votre code avec OpenLLMetry ! Si vous l'exécutez localement, vous souhaiterez peut-être désactiver l'envoi par lots afin de pouvoir voir les traces immédiatement :
Traceloop.init (disable_batch = True)
✅ Traceloop
✅ Axiome
✅ Azure Application Insights
✅ Braintrust
✅ Tiret0
✅ Datadog
✅ Dynatrace
✅ Grafana
✅ Mettre en évidence
✅ Nid d'abeille
✅HyperDX
✅ IBM Instanta
✅ KloudMate
✅ Nouvelle relique
✅ Collecteur OpenTelemetry
✅ Service Now Observabilité du Cloud
✅ SignNoz
✅ Sentinelle
✅ Splunk
Consultez nos documents pour obtenir des instructions sur la connexion à chacun.
OpenLLMetry peut instrumenter tout ce qu'OpenTelemetry instrumente déjà - donc des éléments comme votre base de données, vos appels d'API, etc. En plus de cela, nous avons créé un ensemble d'extensions personnalisées qui instrumentent des éléments tels que vos appels à OpenAI ou Anthropic, ou votre base de données Vector comme Chroma, Pinecone, Qdrant ou Weaviate.
✅ OpenAI / Azure OpenAI
✅ Anthropique
✅ Cohérer
✅ Ollama
✅ Mistral IA
✅ Visage câlin
✅ Socle rocheux (AWS)
✅ SageMaker (AWS)
✅ Répliquer
✅ Vertex AI (GCP)
✅ IA générative Google (Gémeaux)
✅ IBM Watsonx IA
✅ Ensemble IA
✅Aleph Alpha
✅Groq
✅ Chroma
✅ Pomme de pin
✅ Qdrant
✅ Tisser
✅Milvus
✅Marqo
✅LanceDB
✅LangChain
✅Indice des Lamas
✅ Botte de foin
✅ LiteLLM
Qu'elles soient grandes ou petites, nous aimons les contributions ❤️ Consultez notre guide pour savoir par où commencer.
Vous ne savez pas par où commencer ? Tu peux:
Réservez une séance de jumelage gratuite avec un de nos coéquipiers !
Rejoignez notre Slack et posez-nous vos questions là-bas.
Slack (Pour une discussion en direct avec la communauté et l'équipe Traceloop)
Discussions GitHub (pour obtenir de l'aide sur la création et des conversations plus approfondies sur les fonctionnalités)
Problèmes GitHub (pour tous les bugs et erreurs que vous rencontrez en utilisant OpenLLMetry)
Twitter (Recevez des nouvelles rapidement)
À @patrickdebois, qui a suggéré le super nom que nous utilisons désormais pour ce repo !