npm install promptl-ai
PISTL ofrece una sintaxis común y fácil de usar para definir indicaciones dinámicas para LLMS. Es un lenguaje simple pero poderoso que le permite definir las indicaciones en un formato legible por humanos, mientras que aún puede aprovechar el poder completo de LLM.
Gracias a nuestro módulo WASM Universal con RPC, puede usar la indicación en cualquier idioma que pueda ejecutar WAST de forma nativa o a través de una biblioteca. Estos son los enlaces oficiales:
Si bien los LLM se están volviendo más potentes y populares cada día, definir las indicaciones para ellos puede ser una tarea desalentadora. Todos los proveedores principales de LLM, a pesar de sus diferencias, han adoptado una estructura similar para su indicación. Consiste en una conversación entre el usuario y el asistente, que se define mediante una lista de mensajes y una serie de opciones de configuración. En respuesta, devolverá un mensaje de asistente como respuesta.
Esta estructura se parece a esto:
{
"model" : " <your-model> " ,
"temperature" : 0.6 ,
"messages" : [
{
"type" : " system " ,
"content" : " You are a useful AI assistant expert in geography. "
},
{
"type" : " user " ,
"content" : " Hi! What's the capital of Spain? "
}
]
}
Esta estructura puede ser simple, pero puede ser difícil para los usuarios no tecnológicos agarrarla o escribirla desde cero. Además de esto, crear un solo mensaje estático no es tan útil. Por lo general, los usuarios deben definir las conversaciones dinámicamente, donde el flujo cambia en función de la entrada del usuario o los parámetros del evento. El problema es que agregar código para modificar la conversación en función de estos parámetros puede ser confuso y repetitivo: debe hacerse para cada aviso individualmente.
Así es como interviene la sintaxis indicada. Define un idioma lo suficientemente simple como para que cualquier usuario use y comprenda. Y, al mismo tiempo, ofrece un inmenso poder para los usuarios que desean maximizar su potencial. Permite a los usuarios definir la misma estructura que construirían antes, pero de una manera más legible. Además, pueden agregar lógica dinámica personalizada para crear todo lo que necesiten, todo en un solo archivo.
Eche un vistazo a la misma solicitud que antes, utilizando la sintaxis de indicación:
---
model: <your-model>
temperature: 0.6
---
You are a useful AI assistant expert in geography.
<user>
Hi! What's the capital of {{ country_name }}?
</user>
En este caso, no solo la sintaxis es mucho más legible y mantenible, sino que también permite la generación dinámica de indicaciones mediante el uso de variables como {{ country_name }}
.
Este es solo un pequeño ejemplo de lo que puede hacer. Es una herramienta poderosa que puede ayudarlo a definir indicaciones dinámicas para sus LLM de una manera simple y fácil, sin renunciar a ninguna característica o funcionalidad de la estructura original.
Sitio web | Documentación
Para construir la biblioteca JavaScript, ejecute pnpm build:lib
.
Para construir el módulo WASM Universal con RPC, primero instale javy
y luego ejecute pnpm build:rpc
.