npm install promptl-ai
Racklel предлагает общий, простой в использовании синтаксис для определения динамических подсказок для LLMS. Это простой, но мощный язык, который позволяет вам определять подсказки в читаемом человеческом формате, в то же время способный использовать всю мощь LLMS.
Благодаря нашему универсальному модулю WASM с RPC, вы можете использовать Quickl на любом языке, который может запустить WASM, и через библиотеку. Это официальные привязки:
В то время как LLMS становятся все более мощными и популярными с каждым днем, определение подсказков для них может быть сложной задачей. Все основные поставщики LLM, несмотря на их различия, приняли аналогичную структуру для их подсказки. Он состоит из разговора между пользователем и помощником, который определяется списком сообщений и ряд параметров конфигурации. В ответ он вернет помощник сообщения в качестве ответа.
Эта структура выглядит примерно так:
{
"model" : " <your-model> " ,
"temperature" : 0.6 ,
"messages" : [
{
"type" : " system " ,
"content" : " You are a useful AI assistant expert in geography. "
},
{
"type" : " user " ,
"content" : " Hi! What's the capital of Spain? "
}
]
}
Эта структура может быть простой, но для нетехих пользователей может быть трудно понять или писать ее с нуля. В дополнение к этому, создание одной статической подсказки не так полезно. Как правило, пользователи должны динамически определять разговоры, где поток изменяется на основе ввода пользователя или параметров события. Проблема в том, что добавление кода для изменения разговора на основе этих параметров может стать запутанным и повторяющимся - он должен быть выполнен для каждой подсказки индивидуально.
Вот как вступает синтаксис racklel. Он определяет язык, достаточно простой для любого пользователя, чтобы использовать и понять. И в то же время он предлагает огромную силу для пользователей, которые хотят максимизировать свой потенциал. Это позволяет пользователям определять ту же структуру, которую они могли бы построить раньше, но более читаемым образом. Кроме того, они могут добавить пользовательскую динамическую логику для создания всего, что им нужно, всего в одном файле.
Взгляните на то же приглашение, что и раньше, используя синтаксис Quickl:
---
model: <your-model>
temperature: 0.6
---
You are a useful AI assistant expert in geography.
<user>
Hi! What's the capital of {{ country_name }}?
</user>
В этом случае не только синтаксис гораздо более читабелен и поддерживается, но также позволяет динамическому генерированию подсказок, используя такие переменные, как {{ country_name }}
.
Это лишь небольшой пример того, что может сделать rackl. Это мощный инструмент, который может помочь вам определить динамические подсказки для ваших LLMS простым и простым способом, не отдавая какую -либо функцию или функциональность от исходной структуры.
Веб -сайт | Документация
Чтобы построить библиотеку JavaScript, запустите pnpm build:lib
.
Чтобы построить универсальный модуль WASM с RPC, сначала установите javy
, а затем запустите pnpm build:rpc
.