llm-chain
هي مجموعة من صناديق الصدأ المصممة لمساعدتك في إنشاء تطبيقات LLM متقدمة مثل chatbots والوكلاء والمزيد. كمنصة شاملة LLM-OPS ، لدينا دعم قوي لكل من Cloud و LLMs المستضافة محليًا. نقدم أيضًا دعمًا قويًا للقوالب السريعة والسلاسل معًا مطالبات في سلاسل متعددة الخطوات ، مما يتيح المهام المعقدة التي لا تستطيع LLMs التعامل معها في خطوة واحدة. نحن نقدم أيضًا تكاملات متجر المتجهات مما يجعل من السهل إعطاء النموذج الذاكرة على المدى الطويل ومعرفة الموضوع. هذا يمكّنك من بناء تطبيقات متطورة.
لمساعدتك في البدء ، إليك مثال يوضح كيفية استخدام llm-chain
. يمكنك العثور على المزيد من الأمثلة في مجلد الأمثلة في المستودع.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡ البرنامج التعليمي: ابدأ مع سلسلة LLM ➡ البداية السريعة : إنشاء مشروع بناءً على قالبنا
llm.rs
: استخدم LLMS في الصدأ بدون تبعيات على رمز C ++ مع دعمنا لـ llm.rs
llm-chain
. للبدء في استخدام llm-chain
، أضفها كاعتماد في Cargo.toml
(تحتاج إلى Rust 1.65.0 أو أحدث):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
تتطلب الأمثلة الخاصة بـ llm-chain-openai
تعيين متغير بيئة OPENAI_API_KEY
الذي يمكنك القيام به مثل هذا:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
ثم ، راجع الوثائق والأمثلة لمعرفة كيفية إنشاء قوالب سريعة وسلاسل وأكثر من ذلك.
نرحب بحرارة المساهمات من الجميع! إذا كنت مهتمًا بالمساعدة في تحسين llm-chain
، فيرجى مراجعة ملفنا CONTRIBUTING.md
للحصول على إرشادات وأفضل الممارسات.
llm-chain
مرخصة بموجب ترخيص معهد ماساتشوستس للتكنولوجيا.
إذا كان لديك أي أسئلة أو اقتراحات أو ملاحظات ، فلا تتردد في فتح مشكلة أو الانضمام إلى خلاف مجتمعنا. نحن متحمسون دائمًا لسماع من مستخدمينا والتعرف على تجاربك مع llm-chain
.
نأمل أن تستمتع باستخدام llm-chain
لإلغاء تأمين الإمكانات الكاملة لنماذج اللغة الكبيرة في مشاريعك. ترميز سعيد! ؟