llm-chain
ist eine Sammlung von Rostkisten, mit denen Sie erweiterte LLM-Anwendungen wie Chatbots, Agenten und mehr erstellen können. Als umfassende LLM-OP-Plattform unterstützen wir sowohl für Cloud als auch für lokal veranstaltete LLMs stark. Wir bieten auch eine robuste Unterstützung für schnelle Vorlagen und die Zusammenhänge von Angaben in mehrstufigen Ketten, sodass komplexe Aufgaben, die LLMs in einem einzigen Schritt nicht erledigen können, nicht ermöglichen. Wir bieten auch Vektor Store-Integrationen zur Verfügung, damit es einfach ist, Ihrem Modell Langzeitgedächtnis und Fachwissen zu vermitteln. Dies ermöglicht es Ihnen, anspruchsvolle Anwendungen aufzubauen.
Um Ihnen den Einstieg zu erleichtern, zeigt ein Beispiel, das demonstriert, wie Sie llm-chain
verwenden. Weitere Beispiele finden Sie im Beispiele -Ordner im Repository.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡️ Tutorial: Beginnen Sie mit der LLM-Kette ➡️ Schnellstart : Erstellen Sie das Projekt basierend auf unserer Vorlage
llm.rs
-Unterstützung : Verwenden Sie LLMs in Rost ohne Abhängigkeiten von C ++ - Code mit unserer Unterstützung für llm.rs
llm-chain
zu verbessern und zu erweitern. Um llm-chain
zu verwenden, fügen Sie sie als Abhängigkeit in Ihrer Cargo.toml
hinzu (Sie benötigen Rost 1.65.0 oder neuer):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
Bei den Beispielen für llm-chain-openai
müssen Sie die Umgebungsvariable OPENAI_API_KEY
festlegen, die Sie tun können:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
Beachten Sie dann die Dokumentation und Beispiele, um zu erfahren, wie Sie schnelle Vorlagen, Ketten und mehr erstellen.
Wir begrüßen Beiträge von allen herzlich! Wenn Sie llm-chain
verbessern möchten, finden Sie in unserer Datei mit CONTRIBUTING.md
-Datei und Best Practices.
llm-chain
ist unter der MIT-Lizenz lizenziert.
Wenn Sie Fragen, Vorschläge oder Feedback haben, können Sie ein Problem öffnen oder sich unserer Community -Zwietracht anschließen. Wir freuen uns immer, von unseren Benutzern zu hören und Ihre Erfahrungen mit llm-chain
kennenzulernen.
Wir hoffen, dass Sie gerne llm-chain
verwenden, um das volle Potenzial großer Sprachmodelle in Ihren Projekten auszuschalten. Happy Coding! ?