npm install promptl-ai
PromptL propose une syntaxe commune et facile à utiliser pour définir des invites dynamiques pour les LLM. C'est un langage simple mais puissant qui vous permet de définir des invites dans un format lisible par l'homme, tout en étant capable de tirer parti de toute la puissance des LLM.
Grâce à notre module Universal WasM avec RPC, vous pouvez utiliser PromptL dans n'importe quelle langue qui peut exécuter WasM nativement ou via une bibliothèque. Ce sont les liaisons officielles:
Alors que les LLM deviennent de plus en plus puissantes et populaires de jour en jour, la définition des invites peut être une tâche intimidante. Tous les principaux fournisseurs de LLM, malgré leurs différences, ont adopté une structure similaire pour leur incitation. Il se compose d'une conversation entre l'utilisateur et l'assistant, qui est définie par une liste de messages et une série d'options de configuration. En réponse, il renverra un message assistant en réponse.
Cette structure ressemble à ceci:
{
"model" : " <your-model> " ,
"temperature" : 0.6 ,
"messages" : [
{
"type" : " system " ,
"content" : " You are a useful AI assistant expert in geography. "
},
{
"type" : " user " ,
"content" : " Hi! What's the capital of Spain? "
}
]
}
Cette structure peut être simple, mais il peut être difficile pour les utilisateurs non techniques de le saisir ou de l'écrire à partir de zéro. En plus de cela, la création d'une seule invite statique n'est pas si utile. En règle générale, les utilisateurs doivent définir les conversations dynamiquement, où le flux change basé sur l'entrée des utilisateurs ou les paramètres d'événement. Le problème est que l'ajout de code pour modifier la conversation en fonction de ces paramètres peut devenir déroutant et répétitif - il faut faire pour chaque invite individuellement.
C'est ainsi que la syntaxe de PromptL intervient. Il définit une langue suffisamment simple pour que tout utilisateur puisse utiliser et comprendre. Et, en même temps, il offre une énorme puissance aux utilisateurs qui souhaitent maximiser son potentiel. Il permet aux utilisateurs de définir la même structure qu'ils construiseraient auparavant, mais d'une manière plus lisible. De plus, ils peuvent ajouter une logique dynamique personnalisée pour créer tout ce dont ils ont besoin, le tout dans un seul fichier.
Jetez un œil à la même invite qu'auparavant, en utilisant la syntaxe PromptL:
---
model: <your-model>
temperature: 0.6
---
You are a useful AI assistant expert in geography.
<user>
Hi! What's the capital of {{ country_name }}?
</user>
Dans ce cas, non seulement la syntaxe est beaucoup plus lisible et maintenable, mais elle permet également une génération dynamique d'invites en utilisant des variables comme {{ country_name }}
.
Ce n'est qu'un petit exemple de ce que Promptl peut faire. Il s'agit d'un outil puissant qui peut vous aider à définir des invites dynamiques pour votre LLMS d'une manière simple et facile, sans abandonner aucune fonctionnalité ou fonctionnalité de la structure d'origine.
Site Web | Documentation
Pour construire la bibliothèque JavaScript, exécutez pnpm build:lib
.
Pour construire le module Universal WasM avec RPC, installez d'abord javy
, puis exécutez pnpm build:rpc
.