⚡ Cree aplicaciones de razonamiento contextuales ⚡
¿Busca la biblioteca JS/TS? Consulte LangChain.js.
Para ayudarle a enviar aplicaciones LangChain a producción más rápido, consulte LangSmith. LangSmith es una plataforma de desarrollo unificada para crear, probar y monitorear aplicaciones LLM. Complete este formulario para hablar con nuestro equipo de ventas.
Con pepita:
pip install langchain
Con conda:
conda install langchain -c conda-forge
LangChain es un marco para desarrollar aplicaciones impulsadas por grandes modelos de lenguaje (LLM).
Para estas aplicaciones, LangChain simplifica todo el ciclo de vida de la aplicación:
langchain-core
: abstracciones base y lenguaje de expresión LangChain.langchain-community
: integraciones de terceros.langchain-core
. Los ejemplos incluyen langchain_openai
y langchain_anthropic
.langchain
: Cadenas, agentes y estrategias de recuperación que conforman la arquitectura cognitiva de una aplicación.LangGraph
: una biblioteca para crear aplicaciones multiactor robustas y con estado con LLM modelando pasos como bordes y nodos en un gráfico. Se integra perfectamente con LangChain, pero se puede utilizar sin él. Para obtener más información sobre LangGraph, consulte nuestro primer curso de LangChain Academy, Introducción a LangGraph , disponible aquí.❓ Respuesta a preguntas con RAG
? Extracción de resultados estructurados
? Chatbots
¡Y mucho más! Dirígete a la sección Tutoriales de los documentos para obtener más información.
Los principales valores de las bibliotecas LangChain son:
Las cadenas disponibles en el mercado facilitan el comienzo. Los componentes facilitan la personalización de cadenas existentes y la construcción de otras nuevas.
LCEL es una parte clave de LangChain, que le permite crear y organizar cadenas de procesos de una manera declarativa y sencilla. Fue diseñado para soportar la realización de prototipos directamente en producción sin necesidad de modificar ningún código. Esto significa que puede utilizar LCEL para configurar todo, desde configuraciones básicas "prompt + LLM" hasta flujos de trabajo complejos de varios pasos.
Los componentes se dividen en los siguientes módulos :
? Modelo de E/S
Esto incluye gestión de avisos, optimización de avisos, una interfaz genérica para modelos de chat y LLM, y utilidades comunes para trabajar con resultados de modelos.
Recuperación
La generación aumentada de recuperación implica cargar datos de una variedad de fuentes, prepararlos y luego buscarlos (también conocidos como recuperarlos) para usarlos en el paso de generación.
? Agentes
Los agentes permiten a un LLM autonomía sobre cómo se realiza una tarea. Los agentes toman decisiones sobre qué acciones tomar, luego toman esa acción, observan el resultado y repiten hasta completar la tarea. LangChain proporciona una interfaz estándar para agentes, junto con LangGraph para crear agentes personalizados.
Consulte aquí para obtener la documentación completa, que incluye:
Como proyecto de código abierto en un campo en rápido desarrollo, estamos extremadamente abiertos a recibir contribuciones, ya sea en forma de una nueva característica, una infraestructura mejorada o una mejor documentación.
Para obtener información detallada sobre cómo contribuir, consulte aquí.