llm-chain
、チャットボット、エージェントなどの高度なLLMアプリケーションの作成に役立つように設計されたRust Cratesのコレクションです。包括的なLLM-Opsプラットフォームとして、クラウドとローカルホストの両方のLLMを強力にサポートしています。また、プロンプトテンプレートとマルチステップチェーンのプロンプトを一緒にチェーンするための堅牢なサポートを提供し、LLMが単一のステップで処理できない複雑なタスクを可能にします。また、ベクターストアの統合を提供して、モデルに長期的なメモリと主題の知識を簡単に提供できます。これにより、洗練されたアプリケーションを構築することができます。
開始するために、 llm-chain
使用方法を示す例を以下に示します。リポジトリの例フォルダーで、より多くの例を見つけることができます。
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡➡️チュートリアル:LLM-Chainを始めましょう➡§クイックスタート:テンプレートに基づいてプロジェクトを作成します
llm.rs
サポート: llm.rs
のサポートを受けて、C ++コードに依存せずに錆でLLMSを使用するllm-chain
の能力を改善および拡大するために、コミュニティからの貢献を歓迎し、奨励しています。 llm-chain
の使用を開始するには、 Cargo.toml
(Rust 1.65.0以降が必要です):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
llm-chain-openai
の例では、このようにできるOPENAI_API_KEY
環境変数を設定する必要があります。
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
次に、ドキュメントと例を参照して、プロンプトテンプレート、チェーンなどを作成する方法を学びます。
みんなからの貢献を温かく歓迎します! llm-chain
改善を支援することに興味がある場合は、ガイドラインとベストプラクティスについては、 CONTRIBUTING.md
ファイルをチェックしてください。
llm-chain
MITライセンスに基づいてライセンスされています。
ご質問、提案、またはフィードバックがある場合は、お気軽に問題を開いたり、コミュニティの不一致に参加してください。私たちは常にユーザーから聞いて、 llm-chain
でのあなたの経験について学ぶことに興奮しています。
llm-chain
を使用して、プロジェクトで大規模な言語モデルの最大限の可能性を解き放つことを楽しんでいただければ幸いです。ハッピーコーディング! ?