bash-gpt ist eine Bash-Erweiterung, die einen Befehl in natürlicher Sprache in einen tatsächlichen Befehl umschreibt, wenn Sie eine Tastenkombination drücken
bash-gpt hängt nur von sed
, awk
und curl
ab
Hinweis: Entschuldigung! Jetzt am 07.08.2023 behoben – openai hat Leerzeichen zu seinem JSON hinzugefügt, was den regulären Ausdruck zum Parsen beschädigt hat
sudo ./install.sh /usr/local ~/.bashrc " " <YOUR_OPENAI_API_KEY>
oder
./install.sh ~ ~/.bashrc " " <YOUR_OPENAI_API_KEY>
./uninstall.sh [BASHRC]
Wenn BASHRC
nicht angegeben ist, wird versucht, die Deinstallation mithilfe des BASHRC
in Ihrer Umgebungsvariablen BASHGPT_BASHRC
durchzuführen
Öffnen Sie nach der Installation eine neue Shell und geben Sie einen Befehl in natürlicher Sprache ein
$ find all executable files in /usr created within the last day
Drücken Sie Strg-[Leertaste]
$ find /usr -type f -executable -mtime -1
/usr/local/bash-gpt/bin/init
/usr/local/bash-gpt/bin/gpt
natürliche Sprache | generierten Befehl |
---|---|
Ersetzen Sie jede Instanz von foo durch baz in my_file.txt | sed -i 's/foo/baz/g' my_file.txt |
Drehen Sie my_video.mp4 vertikal, skalieren Sie es auf 720p und speichern Sie es als my_output.mp4 | ffmpeg -i my_video.mp4 -vf "vflip,scale=720:-1" my_output.mp4 |
Usage: ./install.sh PREFIX BASHRC SHORTCUT_KEY OPENAI_KEY [MODEL] [TEMPERATURE] [MAX_TOKENS] [TEMPLATE]
Verwendung | Beschreibung | Beispiel/Standardwert |
---|---|---|
PRÄFIX | Der Pfad zur Installation von bash-gpt | /usr/local |
BASHRC | Der Pfad zu Ihrer .bashrc Datei | ~/.bashrc |
SHORTCUT_KEY | Die Taste zum Auslösen von Bash-GPT (STRG-TASTE) | " " |
OPENAI_KEY | Der Schlüssel zum Zugriff auf die OpenAI-API | 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 |
MODELL | Das zu verwendende Modell | text-davinci-003 |
TEMPERATUR | Die zu verwendende Temperatur | 0 |
MAX_TOKENS | Die maximale Anzahl der zu generierenden Token (kleiner ist schneller) | 100 |
VORLAGE | Die zu verwendende Eingabeaufforderungsvorlage ( {{TEXT}} wird durch die Abfrage in natürlicher Sprache ersetzt) | here is the bash command in a code block: {{TEXT}} |
Um Änderungen an den Standardeinstellungen MODEL
, TEMPERATURE
, MAX_TOKENS
oder TEMPLATE
vorzunehmen, können Sie install.sh
erneut ausführen und Ihre .bashrc
wird aktualisiert
Sie können auf diese Weise vorübergehende Änderungen an diesen Parametern vornehmen
$ export BASHGPT_MODEL=<MODEL>
$ export BASHGPT_TEMPERATURE=<TEMPERATURE>
$ export BASHGPT_MAX_TOKENS=<MAX_TOKENS>
$ export BASHGPT_TEMPLATE=<TEMPLATE>
Vorlage | Beschreibung | maximale Token | Notizen |
---|---|---|---|
text-davinci-003 | Kann jede Sprachaufgabe mit besserer Qualität, längerer Ausgabe und konsistenter Befolgung von Anweisungen erledigen als die Curie-, Babbage- oder Ada-Modelle. Unterstützt auch das Einfügen von Vervollständigungen in Text. | 4.097 Token | Standard, am schnellsten |
text-davinci-002 | Ähnliche Fähigkeiten wie text-davinci-003, aber trainiert mit überwachter Feinabstimmung anstelle von Reinforcement Learning | 4.097 Token | nicht gut für Code |
gpt-3.5-turbo | Leistungsfähigstes GPT-3.5-Modell und optimiert für Chat zu 1/10 der Kosten von text-davinci-003. Wird mit unserer neuesten Modelliteration aktualisiert. | 4.096 Token | gutes Modell, aber langsam |
gpt-4 | Leistungsfähiger als jedes GPT-3.5-Modell, in der Lage, komplexere Aufgaben zu erledigen und für Chat optimiert. Wird mit unserer neuesten Modelliteration aktualisiert. | 8.192 Token | langsam, nicht für alle Benutzer verfügbar |
gpt-4-32k | Gleiche Funktionen wie der Basis-GPT-4-Modus, jedoch mit der vierfachen Kontextlänge. Wird mit unserer neuesten Modelliteration aktualisiert. | 32.768 Token | langsam, nicht für alle Benutzer verfügbar |
code-cushman-001 | Fast so leistungsfähig wie Davinci Codex, aber etwas schneller. Dieser Geschwindigkeitsvorteil macht es möglicherweise für Echtzeitanwendungen vorzuziehen. | 2.048 Token | schnellstes Modell, aber ab dem 23. März 2023 veraltet |
Code-Davinci-002 | Leistungsfähigstes Codex-Modell. Besonders gut darin, natürliche Sprache in Code zu übersetzen. Neben der Vervollständigung von Code wird auch das Einfügen von Vervollständigungen in Code unterstützt. | 8.001 Token | Bestes Codemodell, aber seit dem 23. März 2023 veraltet |