AI pour la ligne de commande, construit pour les pipelines.
L'IA basée sur les modèles de grandes langues (LLM) est utile pour ingérer la sortie de la commande et le format des résultats dans Markdown, JSON et d'autres formats basés sur le texte. Mods est un outil pour ajouter une pincée d'IA dans votre ligne de commande et rendre vos pipelines artificiellement intelligents.
Cela fonctionne très bien avec les LLM qui fonctionnent localement via Localai. Vous pouvez également utiliser Openai, Cohere, Groq ou Azure OpenAI.
Utilisez un gestionnaire de packages:
# macOS ou LinuxBrew Installer CharmBracelet / Tap / Mods # Windows (avec Winget) Winget Installer Charmbracelet.MODS # Arch Linux (BTW) YAY -S MODS # NIXNIX-SHELL -P MODS
sudo mkdir -p / etc / apt / keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg --dearmor -o /etc/apt/keyrings/charm.gpgecho "deb [signé-By = / etc / apt / keyrings / charme.gpg] https://repo.charm.sh/apt/ * *" | sudo tee /etc/apt/sources.list.d/charm.list Sudo Apt Update && sudo apt install mods
echo '[charme] name = Charmbaseurl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgkey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo mods d'installation sudo yum
Ou, téléchargez-le:
Les forfaits sont disponibles dans les formats Debian et RPM
Les binaires sont disponibles pour Linux, MacOS et Windows
Ou, installez-le avec go
:
Allez installer github.com/charmbracelet/mods@latest
Tous les packages et archives sont livrés avec des fichiers d'achèvement pré-générés pour Bash, Zsh, Fish et PowerShell.
Si vous l'avez construit à partir de Source, vous pouvez les générer avec:
mods complétion bash -h Mods Achèvement Zsh -h Mods Achèvement Fish -H mods complétion PowerShell -h
Si vous utilisez un package (comme Homebrew, DEBS, etc.), les compléments doivent être configurés automatiquement, étant donné que votre shell est correctement configuré.
Les mods fonctionnent en lisant la norme et en le préfaçant avec une invite fournie dans les arguments mods
. Il envoie le texte d'entrée à un LLM et imprime le résultat, demandant éventuellement au LLM de formater la réponse en tant que Markdown. Cela vous donne un moyen de "remettre en question" la sortie d'une commande. Les mods fonctionneront également sur la norme ou sur un argument fourni invite individuellement.
Assurez-vous de consulter les exemples et une liste de toutes les fonctionnalités.
Les mods fonctionnent avec les points de terminaison compatibles OpenAI. Par défaut, MODS est configuré pour prendre en charge l'API officielle d'OpenAI et une installation locale en cours d'exécution sur le port 8080. Vous pouvez configurer des points de terminaison supplémentaires dans votre fichier de paramètres en exécutant mods --settings
.
Les conversations sont enregistrées localement par défaut. Chaque conversation a un identifiant SHA-1 et un titre (comme git
!).
Vérifiez le ./features.md
pour plus de détails.
-m
, --model
: Spécifiez un modèle grand langage à utiliser.
-f
, --format
: Demandez au LLM de formater la réponse dans un format donné.
--format-as
: spécifiez le format pour la sortie (utilisé avec --format
).
-P
, --prompt
: l'invite devrait inclure le stdin et les args.
-p
, --prompt-args
: l'invite ne doit inclure que les args.
-q
, --quiet
: uniquement les erreurs de sortie vers ERR standard.
-r
, --raw
: Imprimez la réponse brute sans mise en évidence de syntaxe.
--settings
: ouvrez les paramètres.
-x
, --http-proxy
: utilisez le proxy HTTP pour se connecter aux points de terminaison de l'API.
--max-retries
: Nombre maximum de tentatives.
--max-tokens
: spécifiez des jetons maximaux avec lesquels répondre.
--no-limit
: ne limitez pas les jetons de réponse.
--role
: spécifiez le rôle à utiliser (voir les rôles personnalisés).
--word-wrap
: enveloppez la sortie à la largeur (par défaut à 80)
--reset-settings
: restaurer les paramètres par défaut.
-t
, --title
: Définissez le titre pour la conversation.
-l
, --list
: liste des conversations enregistrées.
-c
, --continue
: Continuez à partir de la dernière réponse ou du titre spécifique ou SHA-1.
-C
, --continue-last
: Continuez la dernière conversation.
-s
, --show
: Show Enregistré la conversation pour le titre donné ou SHA-1.
-S
, --show-last
: montrer la conversation précédente.
--delete-older-than=<duration>
: supprime les conversations plus anciennes que la durée donnée ( 10d
, 1mo
).
--delete
: supprime la conversation enregistrée pour le titre donné ou SHA-1.
--no-cache
: ne enregistrez pas de conversations.
--fanciness
: niveau de fantaisie.
--temp
: température d'échantillonnage.
--topp
: valeur P supérieure.
--topk
: valeur supérieure k.
Les rôles vous permettent de définir des invites système. Voici un exemple de rôle shell
:
Rôles: Shell: - Vous êtes un expert Shell - vous n'expliquez rien - Vous publiez simplement une doublure pour résoudre les problèmes qui vous sont posés - vous ne fournissez aucune explication, seulement la commande
Ensuite, utilisez le rôle personnalisé dans mods
:
Mods - Role de la liste des shells dans le répertoire actuel
Les mods utilisent GPT-4 par défaut. Il retombera au GPT-3.5 Turbo.
Définissez la variable d'environnement OPENAI_API_KEY
. Si vous n'en avez pas encore, vous pouvez le saisir sur le site Web OpenAI.
Alternativement, définissez la variable d'environnement [ AZURE_OPENAI_KEY
] pour utiliser Azure OpenAI. Prenez une clé d'Azure.
Cohere fournit des modèles optimisés en entreprise.
Définissez la variable d'environnement COHERE_API_KEY
. Si vous n'en avez pas encore, vous pouvez l'obtenir à partir du tableau de bord Cohere.
L'IA locale vous permet d'exécuter des modèles localement. Mods fonctionne avec le modèle GPT4ALL-J comme configuration dans ce tutoriel.
GROQ fournit des modèles alimentés par leur moteur d'inférence LPU.
Définissez la variable d'environnement GROQ_API_KEY
. Si vous n'en avez pas encore, vous pouvez l'obtenir à partir de la console Groq.
Nous aimerions entendre vos réflexions sur ce projet. N'hésitez pas à nous laisser une note.
Gazouillement
Le Fediverse
Discorde
Mit
Partie du charme.
Charme 热爱开源 • Le charme aime l'open source