Biniou は、数種類の GenAI (生成人工知能) 用の自己ホスト型 Webui です。専用の GPU がなく、8GB RAM からでも、AI でマルチメディア コンテンツを生成し、自分のコンピューターでチャットボットを使用できます。オフラインで作業できます (デプロイされ、必要なモデルがダウンロードされたら)。
GNU/Linux [ OpenSUSE ベース | RHEL ベース | Debian ベース] • Windows • macOS Intel (実験的) • Docker
ドキュメント ❓ |ショールーム?️
? 2024-11-23 :今週の更新情報>
? 2024-11-16 :今週の更新情報>
? 2024-11-09 :今週の更新情報>
? 2024-11-02 :今週の更新情報>
? 2024-10-26 :今週の更新情報>
アーカイブされた更新のリスト
• 特徴
• 前提条件
• インストール
GNU/Linux
OpenSUSE Leap 15.5 / OpenSUSE Tumbleweed
Rocky 9.3 / Alma 9.3 / CentOS Stream 9 / Fedora 39
Debian 12 / Ubuntu 22.04.3 / Ubuntu 24.04 / Linux Mint 21.2
Windows 10 / Windows 11
macOS Intel Homebrew のインストール
Dockerfile
• CUDAのサポート
• 使用方法
• 知っておくとよいこと
• クレジット
• ライセンス
以下を使用したテキスト生成:
以下を使用した画像の生成と変更:
以下を使用したオーディオ生成:
以下を使用したビデオの生成と変更:
以下を使用した 3D オブジェクトの生成:
その他の機能
最小限のハードウェア:
推奨ハードウェア:
オペレーティング·システム :
注: biniou は Cuda または ROCm をサポートしていますが、実行するために専用の GPU は必要ありません。仮想マシンにインストールできます。
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh )
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh )
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh )
apt install git pip python3 python3-venv gcc perl make ffmpeg openssl
git clone https://github.com/Woolverine94/biniou.git
cd ./biniou
./install.sh
apt install google-perftools
Windows のインストールには GNU/Linux よりも多くの前提条件があり、次のソフトウェアが必要です (これらは自動的にインストールされます)。
オペレーティング システムに多くの変更が加えられるため、システムに既にインストールされているソフトウェアによっては、システムに望ましくない動作が生じる可能性があります。
または
すべてのインストールは自動化されていますが、Windows UAC は「前提条件」フェーズでインストールされる各ソフトウェアの確認を求めます。選択したインストーラーを管理者として実行することで、これを回避できます。
install_win.cmd
を使用してインストールするときに、biniou ディレクトリのカスタム パスを定義できるようになりました。
次のように進めます。
set DEFAULT_BINIOU_DIR="%userprofile%"
を変更してset DEFAULT_BINIOU_DIR="E:datassomedir"
(たとえば)E:datassomedir
ではなく、 .datassomedir
)E:datassomedir
E:datassomedir
)E:datassomedirbiniou
)。オペレーティング システムに Homebrew をインストールする
必要な自作「ボトル」をインストールします。
brew install git python3 gcc gcc@11 perl make ffmpeg openssl
python3 -m pip install virtualenv
git clone https://github.com/Woolverine94/biniou.git
cd ./biniou
./install.sh
これらの手順は、Docker 環境がすでに構成され、動作していることを前提としています。
docker build -t biniou https://github.com/Woolverine94/biniou.git
または、CUDA サポートの場合:
docker build -t biniou https://raw.githubusercontent.com/Woolverine94/biniou/main/CUDA/Dockerfile
docker run -it --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
または、CUDA サポートの場合:
docker run -it --gpus all --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
注 : ストレージ領域を節約するために、前のコンテナ起動コマンドはすべての Biniou コンテナに共通の共有ボリュームを定義し、OOM クラッシュの場合にコンテナが自動再起動するようにします。これらの動作を望まない場合は、
--restart
および-v
引数を削除してください。
Biniou は、幅広いハードウェアとの互換性を確保するためにネイティブに CPU のみですが、Nvidia CUDA (機能する CUDA 12.1 環境がある場合) または AMD ROCm (機能する ROCm 5.6 環境がある場合) を通じて CUDA サポートを簡単にアクティブ化できます。 WebUI 制御モジュールで、アクティブ化する最適化のタイプ (Linux の場合は CPU、CUDA、または ROCm) を選択します。
現在、Chatbot、Llava、faceswap モジュールを除くすべてのモジュールが CUDA 最適化の恩恵を受けることができます。
cd /home/ $USER /biniou
./webui.sh
biniou ディレクトリ (C:Users%username%biniou) 内のwebui.cmdをダブルクリックします。 UAC から要求されたら、ネットワークの種類に応じてファイアウォールを設定し、WebUI へのアクセスを許可します。
注: Windows 11 では、最初の起動が非常に遅くなる可能性があります (他の OS と比較して)。
URL で WebUIにアクセスします。
ダークテーマの場合は https://127.0.0.1:7860 または https://127.0.0.1:7860/?__theme=dark (推奨)
URL の 127.0.0.1 を biniou ホストの IP アドレスに置き換えることで、同じ LAN/Wifi ネットワーク上の任意のデバイス (スマートフォンを含む) から biniou にアクセスすることもできます。
ターミナルでキーボード ショートカット CTRL+C を使用して終了します。
WebUI コントロールの更新オプションを使用して、このアプリケーション (biniou + Python 仮想環境)を更新します。
クラッシュの最も一般的な原因は、ホスト上のメモリが不足していることです。症状は、特定のエラー メッセージが表示されずに、プログラムが終了してターミナルに戻るか、終了するという現象です。 Biniou は 8GB RAM で使用できますが、OOM (メモリ不足) エラーを避けるために少なくとも 16GB を推奨します。
Biniou は多くの異なる AI モデルを使用するため、多くのスペースを必要とします。Biniou のすべてのモジュールを使用したい場合は、各モジュールのデフォルト モデルだけで約 200 GB のディスク スペースが必要になります。モデルは、各モジュールの最初の実行時、またはモジュールで新しいモデルを選択してコンテンツを生成するときにダウンロードされます。モデルは、biniou インストールのディレクトリ /models に保存されます。スペースを節約するために、未使用のモデルを削除できます。
...したがって、モデルをダウンロードするには高速インターネット アクセスが必要になります。
生成されたすべてのコンテンツのバックアップは、biniou フォルダーの /outputs ディレクトリ内で利用できます。
Biniou はネイティブではすべての操作で CPU のみに依存します。 PyTorch の特定の CPU のみのバージョンを使用します。その結果、さまざまなハードウェアとの互換性が向上しますが、パフォーマンスは低下します。ハードウェアによっては速度が低下することが予想されます。 Nvidia CUDA サポートおよび AMD ROCm 実験的サポート (GNU/Linux のみ) については、ここを参照してください。
デフォルト設定は、ローエンドのコンピューターで最高のパフォーマンス/品質比率でコンテンツを生成できるように選択されています。最小設定を超える構成がある場合は、他のモデルを使用したり、メディアのサイズや期間を増やしたり、推論パラメーターやその他の設定 (画像のトークン マージなど) を変更して、より高品質のコンテンツを取得してみることができます。
Biniou は GNU GPL3 に基づいてライセンスされていますが、Biniou で使用される各モデルには独自のライセンスがあります。モデルで何ができるか、何ができないかを確認するには、各モデルのライセンスを参照してください。各モデルについて、関連するモジュールの「概要」セクションにモデルのハグフェイス ページへのリンクがあります。
過度な期待はしないでください。biniou は開発の初期段階にあり、そこで使用されているほとんどのオープンソース ソフトウェアは開発中です (一部はまだ実験段階です)。
すべての Biniou モジュールは 2 つのアコーディオン要素「About」と「Settings」を提供します。
このアプリケーションは次のソフトウェアとテクノロジーを使用します。
StableDiffusionPipeline
ベースのモジュールのプロンプト機能強化StableDiffusionPipeline
ベースのモジュールのトークン マージ...そしてそのすべての依存関係
GNU 一般公衆利用許諾書 v3.0
GitHub @Wolverine94 ·