llm-chain
-это коллекция ящиков ржавчины, предназначенной для того, чтобы помочь вам создать расширенные приложения LLM, такие как чат-боты, агенты и многое другое. В качестве комплексной платформы LLM-OPS мы имеем сильную поддержку как облачных, так и для локальных LLMS. Мы также обеспечиваем надежную поддержку для быстрых шаблонов и цепочки подсказкам в многостадочных цепях, что позволяет сложным задачам, с которыми LLMS не может обрабатывать за один шаг. Мы также предоставляем интеграции векторного магазина, позволяя вам легко предоставить вашей модели долговременную память и знания предмета. Это дает вам возможность создавать сложные приложения.
Чтобы помочь вам начать, вот пример, демонстрирующий, как использовать llm-chain
. Вы можете найти больше примеров в папке примеров в репозитории.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡ Учебное пособие: Начните работать с LLM-цепью ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ ➡ quick quick quick waft start start in the explate
llm.rs
: Используйте LLMS в Rust без зависимостей от C ++ Code с нашей поддержкой llm.rs
llm-chain
. Чтобы начать использование llm-chain
, добавьте ее в качестве зависимости в вашем Cargo.toml
.
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
Примеры для llm-chain-openai
требуют, чтобы вы установили переменную среды OPENAI_API_KEY
, которую вы можете сделать в этом:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
Затем обратитесь к документации и примерам, чтобы узнать, как создавать быстрые шаблоны, цепочки и многое другое.
Мы тепло приветствуем вклад всех! Если вы заинтересованы в помощи в улучшении llm-chain
, пожалуйста, ознакомьтесь с нашим файлом CONTRIBUTING.md
для руководящих принципов и лучших практик.
llm-chain
лицензирована по лицензии MIT.
Если у вас есть какие -либо вопросы, предложения или отзывы, не стесняйтесь открывать проблему или присоединиться к нашему сообществу. Мы всегда рады услышать от наших пользователей и узнать о вашем опыте работы с llm-chain
.
Мы надеемся, что вам понравится использовать llm-chain
, чтобы раскрыть весь потенциал крупных языковых моделей в ваших проектах. Счастливого кодирования! ?