AI para a linha de comando, construída para pipelines.
Os grandes modelos de linguagem (LLM) baseados em IA são úteis para ingerir a saída e o formato de comando resulta em Markdown, JSON e outros formatos baseados em texto. O MODS é uma ferramenta para adicionar uma pitada de IA na sua linha de comando e tornar seus pipelines artificialmente inteligentes.
Funciona muito bem com os LLMs correndo localmente através do localai. Você também pode usar o OpenAI, Cohere, Groq ou Azure Openai.
Use um gerenciador de pacotes:
# macOS ou LinuxBrew Instale Charmbracelet/Tap/Mods# Windows (com Winget) Winget Instale Charmbracelet.mods# Arch Linux (BTW) YAY -S Mods# Nixnix -Shell -P Mods
sudo mkdir -p/etc/apt/chaveiros Curl -fsl https://repo.charm.sh/apt/gpg.key | sudo gpg ---dearmor-o /etc/apt/keyrings/charm.gpgeCho "Deb [assinado-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * *" | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt install mods
eco '[Charm] Nome = Charmbaseurl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgKey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yum install mods
Ou faça o download:
Os pacotes estão disponíveis nos formatos Debian e RPM
Binários estão disponíveis para Linux, MacOS e Windows
Ou basta instalá -lo com go
:
Vá instalar github.com/charmbracelet/mods@latest
Todos os pacotes e arquivos vêm com arquivos de conclusão pré-gerados para Bash, Zsh, Fish e PowerShell.
Se você o construiu da fonte, poderá gerá -los com:
Mods Conclusão Bash -H Mods Conclusão ZSH -H Mods Conclusão Fish -H Mods Conclusão PowerShell -H
Se você usar um pacote (como Homebrew, Debs etc.), as conclusões devem ser configuradas automaticamente, dado que seu shell será configurado corretamente.
Os mods funcionam lendo o padrão e precedindo -o com um prompt fornecido nos argumentos mods
. Ele envia o texto de entrada para um LLM e imprime o resultado, opcionalmente pedindo ao LLM que formate a resposta como Markdown. Isso fornece uma maneira de "questionar" a saída de um comando. Os mods também funcionarão no padrão ou em um argumento fornecido individualmente.
Não deixe de conferir os exemplos e uma lista de todos os recursos.
Os mods trabalham com pontos de extremidade compatíveis com o OpenAI. Por padrão, o MODS está configurado para oferecer suporte à API oficial do OpenAI e uma instalação localai em execução na porta 8080. Você pode configurar pontos de extremidade adicionais em seu arquivo de configurações executando mods --settings
.
As conversas são salvas localmente por padrão. Cada conversa tem um identificador SHA-1 e um título (como git
!).
Verifique o ./features.md
para obter mais detalhes.
-m
, --model
: especifique um modelo de idioma grande a ser usado.
-f
, --format
: peça ao LLM para formatar a resposta em um determinado formato.
--format-as
: Especifique o formato para a saída (usada com --format
).
-P
, --prompt
: prompt deve incluir stdin e args.
-p
, --prompt-args
: o prompt deve incluir apenas args.
-q
, --quiet
: apenas erros de saída para err padrão.
-r
, --raw
: Imprima resposta bruta sem destaque da sintaxe.
--settings
: Abra as configurações.
-x
, --http-proxy
: use proxy HTTP para conectar-se aos pontos de extremidade da API.
--max-retries
: Número máximo de tentativas.
--max-tokens
: Especifique tokens máximos com os quais responder.
--no-limit
: não limite os tokens de resposta.
--role
: especifique a função a ser usada (consulte Funções personalizadas).
--word-wrap
: Saída de embrulho na largura (padrão para 80)
--reset-settings
: Restaure as configurações para o padrão.
-t
, --title
: defina o título para a conversa.
-l
, --list
: Lista salvou conversas.
-c
, --continue
: continue da última resposta ou título específico ou sha-1.
-C
, --continue-last
: Continue a última conversa.
-s
, --show
: Show Salvou Conversation para o título ou sha-1 dado.
-S
, --show-last
: mostre uma conversa anterior.
--delete-older-than=<duration>
: exclui conversas mais antigas que a duração ( 10d
, 1mo
).
--delete
: exclui a conversa salva para o título ou sha-1 dado.
--no-cache
: não salve conversas.
--fanciness
: nível de fantasia.
--temp
: Temperatura de amostragem.
--topp
: valor p topo.
--topk
: valor K principal.
As funções permitem que você defina os prompts do sistema. Aqui está um exemplo de papel shell
:
Funções: Shell: - Você é um especialista em shell- você não explica nada- você simplesmente produz um liners para resolver os problemas perguntados- você não fornece nenhuma explicação, apenas o comando
Em seguida, use a função personalizada nos mods
:
Mods -Arquivos de lista de shell -Role no diretório atual
Mods usa o GPT-4 por padrão. Voltará ao GPT-3.5 Turbo.
Defina a variável de ambiente OPENAI_API_KEY
. Se você ainda não tem um, pode pegá -lo no site do OpenAI.
Como alternativa, defina a variável de ambiente [ AZURE_OPENAI_KEY
] para usar o Azure OpenAI. Pegue uma chave do Azure.
A Cohere fornece modelos otimizados para empresas.
Defina a variável de ambiente COHERE_API_KEY
. Se você ainda não tem um, poderá obtê -lo no painel Coere.
A IA local permite que você execute modelos localmente. Os mods trabalham com o modelo GPT4all-J como configuração neste tutorial.
O GROQ fornece modelos alimentados pelo seu mecanismo de inferência de LPU.
Defina a variável de ambiente GROQ_API_KEY
. Se você ainda não tem um, pode obtê -lo no console Groq.
Gostaríamos muito de ouvir seus pensamentos sobre este projeto. Sinta -se à vontade para nos largar uma nota.
O fediverse
Discórdia
Mit
Parte do charme.
Charme 热爱开源 • charme adora código aberto