AI Companion は、ローカル コンピューター上で AI チャットボットを作成するための迅速、シンプル、軽量、便利な方法を提供することを目的としたプロジェクトです。外部 API やライブラリのインストールは必要なく、オペレーティング システムに対応するバイナリ ファイルをインストールするだけです。システムとデバイスを選択し、選択したモデルをダウンロードすると、LLM とチャットするための WebUI、AI キャラクターとロールプレイングするための WebUI、または AI チャットボットを必要とする他のプロジェクトの API としてツールの使用を開始できます。
このプロジェクトには、短期記憶、CUDA、OpenCL および Metal のサポート、長期記憶、対話調整、時間認識、チャットによる学習、REST API として機能する機能、文字カードの読み取り、簡単な操作など、多くのユニークな機能が含まれています。 WebUI を使用すると、データの編集、構成の編集、メッセージの送信、編集、削除が可能になります。
ここからオペレーティング システムとデバイスに適したバイナリ (例: ai-companion-windows-cuda.exe ) をダウンロードし、拡張子.ggufを持つ llm モデル (例: これ) をインストールし、次に ai-companion バイナリ ファイルを起動します。 http://localhost:3000で Web ブラウザを開くと、AI Companion WebUI が表示されます。次に、Web サイト上の歯車アイコンをクリックして、 configに移動し、 Path を大規模言語モデルに置き換えます。 (LLM)ドライブ上の.ggufモデルへのパスを指定して実行すると、コンパニオンとのチャットを開始できます。
テスト済みで動作する AI モデルの小さなリスト:
および .gguf 形式の他の多くの LLM モデル
API ドキュメントはここにあります
プロジェクトで ai-companion バックエンドを使用できるようにする Python ライブラリを探している場合は、ここから入手できます ai-companion-py
実行可能ファイルをビルドするには、次のものが必要です: Node.js と npm、Rust、cargo
ソフトウェアを CUDA、OpenCL、および Metal で動作させるには、このドキュメントの手順と同様の手順に従う必要もあります。
リポジトリの git clone を作成します。
git clone https://github.com/Hukasx0/ai-companion
フォルダに移動します
cd ai-companion/
ノードモジュールをインストールする
npm i
すべてを 1 つのバイナリにコンパイルする
npm run build-full
または
CUDA サポートを使用してすべてを 1 つのバイナリにコンパイルします
npm run build-full-cuda
または
OpenCL サポートを使用してすべてを 1 つのバイナリにコンパイルします
npm run build-full-opencl
または
Metal サポートを使用してすべてを 1 つのバイナリにコンパイルします
npm run build-full-metal
(コンパイル後、バイナリは ai-companion/backend/target/release にあるはずです)
その後、インストールと同じ手順を実行します