⚡ Erstellen Sie kontextbewusste Argumentationsanwendungen ⚡
Suchen Sie nach der JS/TS-Bibliothek? Schauen Sie sich LangChain.js an.
Um Ihnen dabei zu helfen, LangChain-Apps schneller in die Produktion zu bringen, schauen Sie sich LangSmith an. LangSmith ist eine einheitliche Entwicklerplattform zum Erstellen, Testen und Überwachen von LLM-Anwendungen. Füllen Sie dieses Formular aus, um mit unserem Vertriebsteam zu sprechen.
Mit Pip:
pip install langchain
Mit Conda:
conda install langchain -c conda-forge
LangChain ist ein Framework für die Entwicklung von Anwendungen, die auf großen Sprachmodellen (LLMs) basieren.
Für diese Anwendungen vereinfacht LangChain den gesamten Anwendungslebenszyklus:
langchain-core
: Basisabstraktionen und LangChain Expression Language.langchain-community
: Integrationen von Drittanbietern.langchain-core
basieren. Beispiele hierfür sind langchain_openai
und langchain_anthropic
.langchain
: Ketten, Agenten und Abrufstrategien, die die kognitive Architektur einer Anwendung bilden.LangGraph
: Eine Bibliothek zum Erstellen robuster und zustandsbehafteter Multi-Akteur-Anwendungen mit LLMs durch Modellieren von Schritten als Kanten und Knoten in einem Diagramm. Lässt sich problemlos in LangChain integrieren, kann aber auch ohne verwendet werden. Um mehr über LangGraph zu erfahren, schauen Sie sich unseren ersten LangChain Academy-Kurs „Einführung in LangGraph“ an, der hier verfügbar ist.❓Fragenbeantwortung mit RAG
? Extrahieren einer strukturierten Ausgabe
? Chatbots
Und noch viel mehr! Weitere Informationen finden Sie im Abschnitt „Tutorials“ der Dokumentation.
Die wichtigsten Vorteile der LangChain-Bibliotheken sind:
Ketten von der Stange erleichtern den Einstieg. Komponenten erleichtern die individuelle Anpassung vorhandener Ketten und den Aufbau neuer Ketten.
LCEL ist ein wichtiger Bestandteil von LangChain und ermöglicht Ihnen den einfachen, deklarativen Aufbau und die Organisation von Prozessketten. Es wurde entwickelt, um die direkte Übernahme von Prototypen in die Produktion zu unterstützen, ohne dass Code geändert werden muss. Das bedeutet, dass Sie mit LCEL alles einrichten können, von einfachen „Prompt + LLM“-Setups bis hin zu komplexen, mehrstufigen Arbeitsabläufen.
Komponenten fallen in die folgenden Module :
? Modell-E/A
Dazu gehören Prompt-Management, Prompt-Optimierung, eine generische Schnittstelle für Chat-Modelle und LLMs sowie allgemeine Dienstprogramme für die Arbeit mit Modellausgaben.
Abruf
Retrieval Augmented Generation umfasst das Laden von Daten aus verschiedenen Quellen, deren Vorbereitung und das anschließende Durchsuchen (auch Abrufen) zur Verwendung im Generierungsschritt.
? Agenten
Agenten ermöglichen eine LLM-Autonomie darüber, wie eine Aufgabe erledigt wird. Agenten treffen Entscheidungen darüber, welche Aktionen ausgeführt werden sollen, führen dann diese Aktion aus, beobachten das Ergebnis und wiederholen den Vorgang, bis die Aufgabe abgeschlossen ist. LangChain bietet eine Standardschnittstelle für Agenten sowie LangGraph zum Erstellen benutzerdefinierter Agenten.
Die vollständige Dokumentation finden Sie hier. Dazu gehören:
Als Open-Source-Projekt in einem sich schnell entwickelnden Bereich sind wir äußerst offen für Beiträge, sei es in Form einer neuen Funktion, einer verbesserten Infrastruktur oder einer besseren Dokumentation.
Ausführliche Informationen zur Mitwirkung finden Sie hier.