npm install promptl-ai
PromptL bietet eine häufige, benutzerfreundliche Syntax für die Definition von dynamischen Eingabeaufforderungen für LLMs. Es ist eine einfache und doch leistungsstarke Sprache, mit der Sie Eingabeaufforderungen in einem menschlich-lesbaren Format definieren können, während Sie dennoch die volle Kraft von LLMs nutzen können.
Dank unseres Universal -WASM -Moduls mit RPC können Sie promptL in jeder Sprache verwenden, die WASM nativ oder über eine Bibliothek ausführen kann. Dies sind die offiziellen Bindungen:
Während LLMs von Tag zu Tag leistungsfähiger und beliebter werden, kann es eine entmutigende Aufgabe sein, Aufforderungen für sie zu definieren. Alle wichtigsten LLM -Anbieter haben trotz ihrer Unterschiede eine ähnliche Struktur für ihre Aufforderung angenommen. Es besteht aus einer Konversation zwischen Benutzer und Assistent, die durch eine Liste von Nachrichten und eine Reihe von Konfigurationsoptionen definiert wird. Als Antwort wird eine Assistentennachricht als Antwort zurückgegeben.
Diese Struktur sieht ungefähr so aus:
{
"model" : " <your-model> " ,
"temperature" : 0.6 ,
"messages" : [
{
"type" : " system " ,
"content" : " You are a useful AI assistant expert in geography. "
},
{
"type" : " user " ,
"content" : " Hi! What's the capital of Spain? "
}
]
}
Diese Struktur mag einfach sein, aber für Nicht-Techy-Benutzer kann es schwierig sein, sie von Grund auf neu zu erfassen oder zu schreiben. Darüber hinaus ist das Erstellen einer einzelnen statischen Eingabeaufforderung nicht so nützlich. Normalerweise müssen Benutzer Konversationen dynamisch definieren, wobei sich der Fluss basierend auf Benutzereingaben oder Ereignisparametern ändert. Das Problem ist, dass das Hinzufügen von Code zur Änderung der Konversation basierend auf diesen Parametern verwirrend und sich wiederholt werden kann - es muss für jede Eingabeaufforderung einzeln durchgeführt werden.
Auf diese Weise wird die Eingabeaufforderung -Syntax einschreitet. Es definiert eine Sprache, die einfach genug ist, damit jeder Benutzer sie verwenden und verstehen kann. Gleichzeitig bietet es Benutzern, die ihr Potenzial maximieren möchten, eine immense Kraft. Es ermöglicht Benutzern, die gleiche Struktur zu definieren, die sie zuvor erstellt würden, jedoch auf lesbare Weise. Außerdem können sie benutzerdefinierte dynamische Logik hinzufügen, um alles zu erstellen, was sie benötigen, alles in einer einzigen Datei.
Schauen Sie sich dieselbe Eingabeaufforderung wie zuvor mit der Eingabeaufforderung -Syntax an:
---
model: <your-model>
temperature: 0.6
---
You are a useful AI assistant expert in geography.
<user>
Hi! What's the capital of {{ country_name }}?
</user>
In diesem Fall ist nicht nur die Syntax lesbarer und wartbarer, sondern ermöglicht auch die dynamische Erzeugung von Eingabeaufforderungen, indem Variablen wie {{ country_name }}
verwendet werden.
Dies ist nur ein kleines Beispiel dafür, was Eingabeaufforderung tun kann. Es ist ein leistungsstarkes Tool, mit dem Sie dynamische Aufforderungen für Ihre LLMs auf einfache und einfache Weise definieren können, ohne eine Funktion oder Funktionalität aus der ursprünglichen Struktur aufzugeben.
Website | Dokumentation
Um die JavaScript -Bibliothek zu erstellen, führen Sie pnpm build:lib
.
Um das Universal WASM -Modul mit RPC zu erstellen, installieren Sie zuerst javy
und führen Sie dann pnpm build:rpc
.