パイプライン用に構築されたコマンドライン用のAI。
大規模な言語モデル(LLM)ベースのAIは、コマンドの出力を摂取し、フォーマットの結果をマークダウン、JSON、およびその他のテキストベースの形式で摂取するのに役立ちます。 MODSは、コマンドラインにAIの振りかけを追加し、パイプラインを人為的にインテリジェントにするツールです。
ローカライを地元で実行しているLLMSでうまく機能します。 Openai、Cohere、Groq、またはAzure Openaiを使用することもできます。
パッケージマネージャーの使用:
#macosまたはlinuxbrew install charmbracelet/tap/mods#windows(winget)winget install charmbracelet.mods#arch linux(btw)yay -s mods#nixnix -shell -p mods
sudo mkdir -p/etc/apt/keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg - dearmor -o/etc/apt/keyrings/charm.gpgecho "deb [signed-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * * * *" | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt install mods
echo '[charm] name = charmbaseurl = https://repo.charm.sh/yum/enabled=1gpgcheck = 1gpkey=https://repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yumインストールmod
または、それをダウンロードしてください:
パッケージは、DebianおよびRPM形式で利用できます
Linux、MacOS、およびWindowsでバイナリを利用できます
または、 go
でインストールするだけです。
github.com/charmbracelet/mods@latestをインストールします
すべてのパッケージとアーカイブには、Bash、ZSH、Fish、PowerShellの事前に生成された完了ファイルが付属しています。
ソースから構築した場合、次のように生成できます。
mods完了bash -h mods完了zsh -h mods完了FISH -H mods完了powershell -h
パッケージ(HomeBrew、Debsなど)を使用する場合、シェルが適切に構成されている場合、完了を自動的にセットアップする必要があります。
modsは、標準を読み取り、 mods
引数で供給される迅速な序文で作動します。入力テキストをLLMに送信して結果を印刷し、オプションでLLMにマークダウンとして応答をフォーマットするように依頼します。これにより、コマンドの出力を「質問」する方法が与えられます。 MODSは、標準または個別にプロンプトを提供する引数でも動作します。
すべての機能の例とリストを必ずチェックしてください。
MODは、OpenAI互換のエンドポイントで動作します。デフォルトでは、MODSは、PORT mods --settings
で実行されているOpenAIの公式APIとLocalAIインストールをサポートするように構成されています。MODSを実行して、設定ファイルに追加のエンドポイントを設定できます。
会話はデフォルトでローカルに保存されます。各会話には、SHA-1識別子とタイトル( git
!など)があります。
詳細については、 ./features.md
features.mdを確認してください。
-m
、 --model
:使用する大きな言語モデルを指定します。
-f
、 --format
:LLMに、特定の形式で応答をフォーマットするように依頼します。
--format-as
:出力の形式( --format
で使用)を指定します。
-P
、 --prompt
:プロンプトにはstdinとargsを含める必要があります。
-p
、 --prompt-args
:プロンプトにはargsのみを含める必要があります。
-q
、 --quiet
:標準ERRへの出力エラーのみ。
-r
、 --raw
:構文の強調表示なしで生の応答を印刷します。
--settings
:設定を開く。
-x
、 --http-proxy
:HTTPプロキシを使用してAPIエンドポイントに接続します。
--max-retries
:Retriesの最大数。
--max-tokens
:応答する最大トークンを指定します。
--no-limit
:応答トークンを制限しないでください。
--role
:使用する役割を指定します(カスタムロールを参照)。
--word-wrap
:幅でラップ出力(デフォルトは80になります)
--reset-settings
:設定をデフォルトに復元します。
-t
、 --title
:会話のタイトルを設定します。
-l
、 --list
:保存された会話をリストします。
-c
、 --continue
:最後の応答または特定のタイトルまたはsha-1から続行します。
-C
、 --continue-last
:最後の会話を続けます。
-s
、 --show
:指定されたタイトルまたはsha-1の保存された会話を表示します。
-S
、 --show-last
:以前の会話を表示します。
--delete-older-than=<duration>
:指定された時間( 10d
、 1mo
)よりも古い会話を削除します。
--delete
:与えられたタイトルまたはSHA-1の保存された会話を削除します。
--no-cache
:会話を保存しないでください。
--fanciness
:誇らしさのレベル。
--temp
:サンプリング温度。
--topp
:トップP値。
--topk
:トップK値。
役割により、システムプロンプトを設定できます。これがshell
役割の例です。
役割:シェル: - あなたはシェルの専門家です - あなたは何も説明しません - あなたはあなたが尋ねた問題を解決するために1つのライナーを単に出力するだけです - あなたは何も説明しません、コマンドのみ
次に、 mods
でカスタムロールを使用します。
mods - 現在のディレクトリ内のロールシェルリストファイル
MODSは、デフォルトでGPT-4を使用します。 GPT-3.5ターボに戻ります。
OPENAI_API_KEY
環境変数を設定します。まだ持っていない場合は、OpenaiのWebサイトをつかむことができます。
または、[ AZURE_OPENAI_KEY
]環境変数を設定して、azure openaiを使用します。 Azureからキーをつかみます。
Cohereは、エンタープライズ最適化モデルを提供します。
COHERE_API_KEY
環境変数を設定します。まだ持っていない場合は、Cohere Dashboardから入手できます。
ローカルAIを使用すると、モデルをローカルで実行できます。 MODSは、このチュートリアルのセットアップとしてGPT4ALL-Jモデルと連携します。
GROQは、LPU推論エンジンを搭載したモデルを提供します。
GROQ_API_KEY
環境変数を設定します。まだ持っていない場合は、Groqコンソールから入手できます。
このプロジェクトについてのあなたの考えを聞きたいです。お気軽におめでとうございます。
ツイッター
フェディバース
不和
mit
魅力の一部。
チャーム热爱开源•チャームはオープンソースが大好きです