⚡ Créez des applications de raisonnement contextuelles ⚡
Vous recherchez la bibliothèque JS/TS ? Consultez LangChain.js.
Pour vous aider à expédier plus rapidement les applications LangChain en production, consultez LangSmith. LangSmith est une plateforme de développement unifiée pour créer, tester et surveiller des applications LLM. Remplissez ce formulaire pour parler avec notre équipe commerciale.
Avec pépin :
pip install langchain
Avec conda :
conda install langchain -c conda-forge
LangChain est un framework pour développer des applications alimentées par de grands modèles de langage (LLM).
Pour ces applications, LangChain simplifie l'ensemble du cycle de vie de l'application :
langchain-core
: abstractions de base et langage d'expression LangChain.langchain-community
: Intégrations tierces.langchain-core
. Les exemples incluent langchain_openai
et langchain_anthropic
.langchain
: chaînes, agents et stratégies de récupération qui constituent l'architecture cognitive d'une application.LangGraph
: Une bibliothèque pour créer des applications multi-acteurs robustes et dynamiques avec des LLM en modélisant les étapes sous forme d'arêtes et de nœuds dans un graphique. S'intègre facilement à LangChain, mais peut être utilisé sans lui. Pour en savoir plus sur LangGraph, consultez notre premier cours LangChain Academy, Introduction à LangGraph , disponible ici.❓ Réponse aux questions avec RAG
? Extraire une sortie structurée
? Chatbots
Et bien plus encore ! Rendez-vous dans la section Tutoriels de la documentation pour en savoir plus.
Les principaux accessoires de valeur des bibliothèques LangChain sont :
Les chaînes disponibles dans le commerce facilitent le démarrage. Les composants facilitent la personnalisation des chaînes existantes et la création de nouvelles.
LCEL est un élément clé de LangChain, vous permettant de créer et d'organiser des chaînes de processus de manière simple et déclarative. Il a été conçu pour prendre en charge la mise en production directe des prototypes sans avoir à modifier le code. Cela signifie que vous pouvez utiliser LCEL pour tout configurer, depuis les configurations de base « invite + LLM » jusqu'aux flux de travail complexes en plusieurs étapes.
Les composants appartiennent aux modules suivants :
? Modèle E/S
Cela inclut la gestion des invites, l'optimisation des invites, une interface générique pour les modèles de discussion et les LLM, ainsi que des utilitaires communs pour travailler avec les sorties du modèle.
Récupération
La génération augmentée par récupération implique le chargement de données à partir de diverses sources, leur préparation, puis leur recherche (c'est-à-dire leur récupération) pour les utiliser dans l'étape de génération.
? Agents
Les agents permettent à un LLM d'être autonome sur la façon dont une tâche est accomplie. Les agents prennent des décisions sur les actions à entreprendre, puis effectuent cette action, observent le résultat et répètent jusqu'à ce que la tâche soit terminée. LangChain fournit une interface standard pour les agents, ainsi que LangGraph pour créer des agents personnalisés.
Veuillez consulter ici pour la documentation complète, qui comprend :
En tant que projet open source dans un domaine en développement rapide, nous sommes extrêmement ouverts aux contributions, que ce soit sous la forme d'une nouvelle fonctionnalité, d'une infrastructure améliorée ou d'une meilleure documentation.
Pour des informations détaillées sur la façon de contribuer, voir ici.