AI para la línea de comando, construida para tuberías.
La IA basada en Modelos de Lenguaje Grande (LLM) es útil para ingerir la salida de comandos y los resultados de formato en Markdown, JSON y otros formatos basados en texto. MODS es una herramienta para agregar una pizca de IA en su línea de comando y hacer que sus tuberías sean artificialmente inteligentes.
Funciona muy bien con LLM que se ejecuta localmente a través de Localai. También puede usar OpenAI, Cohere, Groq o Azure OpenAI.
Use un administrador de paquetes:
# macOS o Linuxbrew Instale Charmbracelet/Tap/Mods# Windows (con Winget) Winget Instalar Charmbracelet.Mods# Arch Linux (BTW) YAY -S Mods# Nixnix -Shell -P Mods
sudo mkdir -p/etc/apt/keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo GPG --Dearmor -o /etc/apt/Keyrings/Charm.GpGecho "Deb [firmado -by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * * *" | sudo tee /etc/apt/sources.list.d/charm.list Sudo Apt Update && Sudo Apt Install Mods
echo '[Charm] name = CharmbaseUrl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgkey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo mods de instalación de sudo yum
O descargarlo:
Los paquetes están disponibles en formatos de Debian y RPM
Los binarios están disponibles para Linux, MacOS y Windows
O simplemente instálelo con go
:
Vaya a instalar github.com/charmbracelet/mods@latest
Todos los paquetes y archivos vienen con archivos de finalización previamente generados para Bash, ZSH, Fish y PowerShell.
Si lo construyó desde la fuente, puede generarlos con:
Mods de finalización Bash -H Mods de finalización ZSH -H Mods de finalización de peces -h mods finalización powershell -h
Si usa un paquete (como HomeBrew, Debs, etc.), las terminaciones deben configurarse automáticamente, dado que su shell está configurado correctamente.
MODS funciona leyendo estándar y preparándolo con un aviso suministrado en los argumentos mods
. Envía el texto de entrada a un LLM e imprime el resultado, opcionalmente pidiendo al LLM que formatea la respuesta como Markdown. Esto le da una forma de "cuestionar" el resultado de un comando. Los mods también funcionarán en estándar o un argumento suministrado individualmente.
Asegúrese de consultar los ejemplos y una lista de todas las características.
Mods funciona con puntos finales compatibles de OpenAI. De forma predeterminada, MODS está configurado para admitir la API oficial de OpenAI y una instalación de LocalAI que se ejecuta en el puerto 8080. Puede configurar puntos finales adicionales en su archivo de configuración ejecutando mods --settings
.
Las conversaciones se guardan localmente de forma predeterminada. Cada conversación tiene un identificador SHA-1 y un título (¡como git
!).
Consulte ./features.md
para obtener más detalles.
-m
, --model
: especifique el modelo de lenguaje grande para usar.
-f
, --format
: solicite al LLM que formatea la respuesta en un formato dado.
--format-as
: Especifique el formato para la salida (utilizado con --format
).
-P
, --prompt
: el aviso debe incluir Stdin y Args.
-p
, --prompt-args
: el aviso solo debe incluir args.
-q
, --quiet
: Solo errores de salida a ERR estándar.
-r
, --raw
: imprime la respuesta bruta sin resaltar de sintaxis.
--settings
: Abra la configuración.
-x
, --http-proxy
: use el proxy HTTP para conectarse a los puntos finales de la API.
--max-retries
: Número máximo de reintentos.
--max-tokens
: especifique tokens máximos para responder.
--no-limit
: no limite los tokens de respuesta.
--role
: especifique el rol que se utiliza (ver roles personalizados).
--word-wrap
: envolver la salida en el ancho (predeterminado a 80)
--reset-settings
: Restaurar la configuración al valor predeterminado.
-t
, --title
: Establezca el título para la conversación.
-l
, --list
: lista de conversaciones guardadas.
-c
, --continue
: Continúe desde la última respuesta o título específico o SHA-1.
-C
, --continue-last
: Continúe la última conversación.
-s
, --show
: Mostrar conversación guardada para el título dado o SHA-1.
-S
, --show-last
: Mostrar conversación anterior.
--delete-older-than=<duration>
: elimina las conversaciones más antiguas que la duración dada ( 10d
, 1mo
).
--delete
: elimina la conversación guardada para el título dado o SHA-1.
--no-cache
: no guarde conversaciones.
--fanciness
: nivel de arma.
--temp
: temperatura de muestreo.
--topp
: Top P Value.
--topk
: Top K Value.
Los roles le permiten establecer las indicaciones del sistema. Aquí hay un ejemplo de un rol shell
:
Roles: Shell: - Usted es un experto en shell, no explica nada, simplemente emite un revestimiento para resolver los problemas que se le pregunta, no proporciona ninguna explicación, solo el comando
Luego, use el papel personalizado en mods
:
Mods -archivos de lista de shell -rol en el directorio actual
Mods usa GPT-4 por defecto. Volverá a GPT-3.5 Turbo.
Establezca la variable de entorno OPENAI_API_KEY
. Si aún no tiene uno, puede obtenerlo en el sitio web de OpenAI.
Alternativamente, establezca el entorno [ AZURE_OPENAI_KEY
] variable para usar Azure OpenAI. Tome una llave de Azure.
Cohere proporciona modelos optimizados empresariales.
Establezca la variable de entorno COHERE_API_KEY
. Si aún no tiene uno, puede obtenerlo desde el tablero de coheres.
La IA local le permite ejecutar modelos localmente. Mods funciona con el modelo GPT4All-J como configuración en este tutorial.
Groq proporciona modelos alimentados por su motor de inferencia LPU.
Establezca la variable de entorno GROQ_API_KEY
. Si aún no tiene uno, puede obtenerlo de la consola Groq.
Nos encantaría escuchar sus pensamientos sobre este proyecto. No dude en dejarnos una nota.
Gorjeo
El fediverse
Discordia
MIT
Parte del encanto.
Encanto 热爱开源 • El encanto ama el código abierto