llm-chain
est une collection de caisses de rouille conçues pour vous aider à créer des applications LLM avancées telles que les chatbots, les agents, etc. En tant que plate-forme LLM-OPS complète, nous avons un fort support pour les LLM cloud et hébergés localement. Nous fournissons également une prise en charge robuste pour les modèles invites et les invites de chaînage dans les chaînes en plusieurs étapes, permettant des tâches complexes que les LLM ne peuvent pas gérer en une seule étape. Nous fournissons également des intégrations de magasins vectoriels, ce qui facilite la conception de la mémoire à long terme à votre modèle et de la connaissance du sujet. Cela vous permet de créer des applications sophistiquées.
Pour vous aider à démarrer, voici un exemple montrant comment utiliser llm-chain
. Vous pouvez trouver plus d'exemples dans le dossier Exemples dans le référentiel.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡️ Tutoriel: commencez avec LLM-Chain ➡️ Start rapide : créez un projet basé sur notre modèle
llm.rs
Prise en charge : utilisez les LLMS en rouille sans dépendances sur le code C ++ avec notre support pour llm.rs
llm-chain
. Pour commencer à utiliser llm-chain
, ajoutez-le comme dépendance dans votre Cargo.toml
(vous avez besoin de rouille 1.65.0 ou plus récent):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
Les exemples pour llm-chain-openai
vous obligent à définir la variable d'environnement OPENAI_API_KEY
que vous pouvez faire comme ceci:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
Ensuite, reportez-vous à la documentation et aux exemples pour apprendre à créer des modèles d'invites, des chaînes, etc.
Nous accueillons chaleureusement les contributions de tout le monde! Si vous souhaitez aider à améliorer llm-chain
, veuillez consulter notre fichier CONTRIBUTING.md
pour les directives et les meilleures pratiques.
llm-chain
est concédé sous licence MIT.
Si vous avez des questions, des suggestions ou des commentaires, n'hésitez pas à ouvrir un problème ou à rejoindre notre discorde communautaire. Nous sommes toujours ravis d'entendre nos utilisateurs et de découvrir vos expériences avec llm-chain
.
Nous espérons que vous apprécierez l'utilisation de llm-chain
pour débloquer le plein potentiel des modèles de grande langue dans vos projets. Codage heureux! ?