Observabilidad de código abierto para su aplicación LLM
Nuevo : ¡Nuestras convenciones semánticas ahora son parte de OpenTelemetry! Únase a la discusión y ayúdenos a dar forma al futuro de la observabilidad del LLM.
¿Busca la versión JS/TS? Consulte OpenLLMetry-JS.
OpenLLMetry es un conjunto de extensiones creadas sobre OpenTelemetry que le brinda una observabilidad completa de su aplicación LLM. Debido a que utiliza OpenTelemetry internamente, se puede conectar a sus soluciones de observabilidad existentes: Datadog, Honeycomb y otras.
Está construido y mantenido por Traceloop bajo la licencia Apache 2.0.
El repositorio contiene instrumentaciones estándar de OpenTelemetry para proveedores de LLM y Vector DB, así como un SDK de Traceloop que facilita la introducción a OpenLLMetry y, al mismo tiempo, genera datos estándar de OpenTelemetry que se pueden conectar a su pila de observabilidad. Si ya tiene OpenTelemetry instrumentado, puede agregar cualquiera de nuestras instrumentaciones directamente.
La forma más sencilla de empezar es utilizar nuestro SDK. Para obtener una guía completa, consulte nuestros documentos.
Instale el SDK:
instalación de pip traceloop-sdk
Luego, para comenzar a instrumentar su código, simplemente agregue esta línea a su código:
desde traceloop.sdk importar TraceloopTraceloop.init()
Eso es todo. ¡Ahora estás rastreando tu código con OpenLLMetry! Si está ejecutando esto localmente, es posible que desee deshabilitar el envío por lotes, para poder ver los seguimientos inmediatamente:
Traceloop.init(disable_batch=True)
✅ Trazo de bucle
✅ Axioma
✅ Información sobre aplicaciones de Azure
✅ Confianza cerebral
✅ Dash0
✅ perro de datos
✅Dynatrace
✅ Grafana
✅ Destacar
✅ Panal
✅ HiperDX
✅ IBM Instana
✅ KloudMate
✅ Nueva Reliquia
✅ Recopilador OpenTelemetry
✅ Servicio Ahora Observabilidad en la Nube
✅ Señal
✅ Centinela
✅ Derramar
Consulte nuestros documentos para obtener instrucciones sobre cómo conectarse a cada uno.
OpenLLMetry puede instrumentar todo lo que OpenTelemetry ya instrumenta, es decir, cosas como su base de datos, llamadas API y más. Además de eso, creamos un conjunto de extensiones personalizadas que instrumentan cosas como sus llamadas a OpenAI o Anthropic, o su Vector DB como Chroma, Pinecone, Qdrant o Weaviate.
✅OpenAI/Azure OpenAI
✅ Antrópico
✅ Coherir
✅Ollama
✅ Mistral IA
✅ Abrazando la cara
✅ Base (AWS)
✅SageMaker (AWS)
✅ Replicar
✅ Vértice AI (GCP)
✅ IA generativa de Google (Géminis)
✅ IBM Watsonx IA
✅ Juntos IA
✅ Aleph Alfa
✅ Groq
✅ Croma
✅ Piña
✅ Qdrante
✅ Tejer
✅ Milvus
✅ Marqo
✅ LanzaDB
✅ Cadena Lang
✅ Índice de llamas
✅ Pajar
✅ LiteLLM
Ya sean grandes o pequeñas, nos encantan las contribuciones ❤️ Consulta nuestra guía para ver cómo empezar.
¿No estás seguro de por dónde empezar? Puede:
¡Reserva una sesión de emparejamiento gratuita con uno de nuestros compañeros de equipo!
Únete a nuestro Slack y haznos cualquier pregunta allí.
Slack (para debates en vivo con la comunidad y el equipo de Traceloop)
Discusiones de GitHub (para obtener ayuda con la creación y conversaciones más profundas sobre funciones)
Problemas de GitHub (para cualquier error que encuentre al usar OpenLLMetry)
Twitter (recibe noticias rápidamente)
¡A @patrickdebois, quien sugirió el gran nombre que estamos usando ahora para este repositorio!