KI für die Befehlszeile, für Pipelines erstellt.
Basierte KI mit großer Sprachmodellen (LLM) ist nützlich, um die Ausgabe des Befehls und das Format zu Aufnahme von Markdown, JSON und anderen textbasierten Formaten zu erstellen. Mods ist ein Werkzeug, um eine KI in Ihrer Befehlszeile hinzuzufügen und Ihre Pipelines künstlich intelligent zu machen.
Es funktioniert hervorragend mit LLMs, die lokal durch Localai laufen. Sie können auch Openai, Cohere, GROQ oder Azure Openai verwenden.
Verwenden Sie einen Paketmanager:
# MacOS oder LinuxBrew Installieren Sie Charmbracelet/TAP/MODS# Windows (mit Winget) Winget Installieren Sie charmbracelet
sudo mkdir -p/etc/apt/keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg ---dearmor -o /etc/apt/keyrings/charm.gpgecho "deb [signed-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * *" | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt installieren mods
echo '[charm] name = charmbaseUrl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgkey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yum installieren mods
Oder laden Sie es herunter:
Pakete sind in Debian- und RPM -Formaten erhältlich
Binärdateien sind für Linux, MacOS und Windows verfügbar
Oder installieren Sie es einfach mit go
:
Installieren Sie github.com/charmbracelet/mods@latest
Alle Pakete und Archive sind mit vorgenerierten Fertigstellungsdateien für Bash, ZSH, Fisch und PowerShell ausgestattet.
Wenn Sie es aus der Quelle erstellt haben, können Sie sie mit:
Mods Completion Bash -h -h Mods Abschluss ZSH -h Mods Fertigstellung Fisch -h Mods Completion PowerShell -h
Wenn Sie ein Paket (wie Homebrew, Debs usw.) verwenden, sollten die Abschlüsse automatisch eingerichtet werden, da Ihre Shell ordnungsgemäß konfiguriert ist.
Mods funktioniert, indem sie Standard in den in den mods
-Argumenten gelieferten Eingabeaufforderung lesen und vorbereiten. Es sendet den Eingangstext an einen LLM und druckt das Ergebnis aus, wobei das LLM optional aufgefordert wird, die Antwort als Markdown zu formatieren. Dies gibt Ihnen eine Möglichkeit, die Ausgabe eines Befehls zu "befragen". Mods funktionieren auch auf Standard in oder ein Argument, das einzeln einzeln geliefert wird.
Schauen Sie sich unbedingt die Beispiele und eine Liste aller Funktionen an.
Mods funktioniert mit OpenAI -kompatiblen Endpunkten. Standardmäßig ist Mods so konfiguriert, dass die offizielle API von OpenAI und eine lokale Installation auf Port 8080 ausgeführt werden. Sie können zusätzliche Endpunkte in Ihrer Einstellungsdatei konfigurieren, indem Sie mods --settings
ausführen.
Gespräche werden standardmäßig lokal gespeichert. Jedes Gespräch hat eine SHA-1-Kennung und einen Titel (wie git
!).
Weitere Informationen finden Sie in der ./features.md
.
-m
, --model
: Geben Sie ein großes Sprachmodell an.
-f
, --format
: Bitten Sie das LLM, die Antwort in einem bestimmten Format zu formatieren.
--format-as
: Geben Sie das Format für den Ausgang an (verwendet mit --format
).
-P
, --prompt
: Eingabeaufforderung sollte Stdin und Args enthalten.
-p
, --prompt-args
: Die Eingabeaufforderung sollte nur Argumente enthalten.
-q
, --quiet
: Nur Ausgabefehler zu Standard -ERR.
-r
, --raw
: RAW -Antwort ohne Syntax -Hervorhebung drucken.
--settings
: Öffnen Sie Einstellungen.
-x
, --http-proxy
: Verwenden Sie den HTTP-Proxy, um eine Verbindung zu den API-Endpunkten herzustellen.
--max-retries
: Maximale Anzahl von Wiederholungen.
--max-tokens
: Geben Sie maximale Token an, mit denen Sie antworten können.
--no-limit
: Begrenzen Sie die Antwort-Token nicht.
--role
: Geben Sie die zu verwendende Rolle an (siehe benutzerdefinierte Rollen).
--word-wrap
: Wrap-Ausgang bei Breite (Standardeinstellungen bis 80)
--reset-settings
: Einstellungen standardmäßig wiederherstellen.
-t
, --title
: Setzen Sie den Titel für das Gespräch.
-l
, --list
: List gespeicherte Gespräche.
-c
, --continue
: Weiter von der letzten Antwort oder des spezifischen Titels oder SHA-1.
-C
, --continue-last
: Setzen Sie das letzte Gespräch fort.
-s
, --show
: Show Saved Gespräch für den angegebenen Titel oder SHA-1.
-S
, --show-last
: Vorherige Konversation zeigen.
--delete-older-than=<duration>
: Löscht Gespräche, die älter als die gegebene Dauer ( 10d
, 1mo
) sind.
--delete
: Löscht das gespeicherte Gespräch für den angegebenen Titel oder SHA-1.
--no-cache
: Speichern Sie keine Gespräche.
--fanciness
: Stufe der Schacht.
--temp
: Probenahmetemperatur.
--topp
: Top P-Wert.
--topk
: Top K-Wert.
Mit Rollen können Sie Systemaufforderungen festlegen. Hier ist ein Beispiel für eine shell
-Rolle:
Rollen: Shell: - Sie sind ein Shell-Experte. Sie erklären nichts- Sie geben einfach einen Liner aus, um die von Ihnen gefrageten Probleme zu lösen. Sie geben keinerlei Erklärungen an, sondern nur den Befehl
Verwenden Sie dann die benutzerdefinierte Rolle in mods
:
Mods -Rollen -Shell -Listendateien im aktuellen Verzeichnis
Mods verwendet standardmäßig GPT-4. Es wird auf GPT-3,5 Turbo zurückfallen.
Stellen Sie die Umgebungsvariable OPENAI_API_KEY
fest. Wenn Sie noch keinen haben, können Sie ihn auf der OpenAI -Website schnappen.
Setzen Sie alternativ die Umgebungsvariable [ AZURE_OPENAI_KEY
] für die Verwendung von Azure OpenAI. Nehmen Sie einen Schlüssel von Azure.
Cohere bietet Unternehmen optimierte Modelle.
Setzen Sie die Umgebungsvariable COHERE_API_KEY
. Wenn Sie noch keinen haben, können Sie ihn aus dem Cohere -Dashboard erhalten.
Mit der lokalen KI können Sie Modelle lokal ausführen. Mods funktioniert mit dem GPT4ALL-J-Modell als Setup in diesem Tutorial.
GROQ bietet Modelle an, die von ihrer LPU -Inferenzmotor betrieben werden.
Setzen Sie die Umgebungsvariable von GROQ_API_KEY
. Wenn Sie noch keinen haben, können Sie ihn von der GROQ -Konsole erhalten.
Wir würden gerne Ihre Gedanken zu diesem Projekt hören. Fühlen Sie sich frei, uns eine Notiz zu geben.
Der Fedivers
Zwietracht
MIT
Teil des Charmees.
Charme 热爱开源 • Charme liebt Open Source