Una herramienta CLI para interactuar con LLM. Proporcione sus claves API en este formato: <completer>_API_KEY>
Los completadores admitidos son:
ANTHROPIC
MISTRAL
OPENAI
PERPLEXITY
Actualmente, puedes compilar desde el código fuente y utilizar el binario generado. Clona el repositorio y ejecuta el siguiente comando:
make
Esto creará un binario llamado llm
en el directorio bin
.
Todas las interacciones se almacenan localmente en su sistema de archivos. Esta configuración permite enviar múltiples mensajes a los LLM, manteniendo el contexto en diferentes conversaciones.
Su historial de conversaciones se puede compartir entre todos los LLM admitidos. Esto le permite aprovechar las fortalezas de cada modelo, combinando sus capacidades para crear una poderosa experiencia conversacional.
Anteponer cualquier comando con llm proporciona una explicación clara y concisa de ese comando, junto con ejemplos que demuestran su uso.
Puedes tener varias sesiones, cada una con su propio contexto e historia. Esto le permite cambiar entre diferentes conversaciones y mantener una experiencia conversacional consistente.
Para utilizar la CLI, debe proporcionar sus claves API como variables de entorno. Puede configurar estas variables en su archivo de configuración de shell (por ejemplo, .zshrc
) o directamente en la terminal.
Una vez que haya configurado las variables de entorno, puede usar el siguiente comando (desde la raíz del repositorio) para solicitar el LLM:
bin/llm < llm-name > [flags] < prompt >
Para chatear, simplemente use el subcomando chat
:
bin/llm < llm-name > chat
Y, por supuesto, agregue /path/to/repo/bin
a su $PATH
para usar la CLI desde cualquier lugar.
Cree una variable de entorno DEFAULT_COMPLETER
con el nombre del completador que desea utilizar. Ellos son:
claude
mistral
gpt
Luego, puede anteponer cualquier comando que desee comprender con llm
para comprender cómo funciona con ejemplos.