LLM と対話するための CLI ツール。 API キーを次の形式で指定します: <completer>_API_KEY>
サポートされているコンプリーターは次のとおりです。
ANTHROPIC
MISTRAL
OPENAI
PERPLEXITY
現在、ソースからビルドして、生成されたバイナリを使用できます。リポジトリのクローンを作成し、次のコマンドを実行します。
make
これにより、 bin
ディレクトリにllm
という名前のバイナリが作成されます。
すべての対話はファイルシステム上にローカルに保存されます。この設定により、さまざまな会話にわたってコンテキストが維持された状態で、複数のプロンプトを LLM に送信できるようになります。
会話履歴は、サポートされているすべての LLM 間で共有できます。これにより、各モデルの長所を活用し、その機能を組み合わせて強力な会話エクスペリエンスを作成できます。
コマンドの先頭に llm を付けると、そのコマンドの明確かつ簡潔な説明と、その使用法を示す例が提供されます。
複数のセッションを作成でき、それぞれに独自のコンテキストと履歴があります。これにより、異なる会話を切り替えて、一貫した会話エクスペリエンスを維持できます。
CLI を使用するには、API キーを環境変数として指定する必要があります。これらの変数は、シェル構成ファイル ( .zshrc
など) で設定することも、ターミナルで直接設定することもできます。
環境変数を設定したら、次のコマンドを (リポジトリのルートから) 使用して、LLM にプロンプトを表示できます。
bin/llm < llm-name > [flags] < prompt >
チャットするには、 chat
サブコマンドを使用します。
bin/llm < llm-name > chat
そしてもちろん、どこからでも CLI を使用できるように、 $PATH
に/path/to/repo/bin
追加します。
使用するコンプリーターの名前を使用して環境変数DEFAULT_COMPLETER
を作成します。彼らです:
claude
mistral
gpt
次に、理解したいコマンドにllm
接頭辞を付けて、例を使用してコマンドがどのように機能するかを理解できます。