安定した拡散のエンドツーエンドガイド - 初心者から専門家まで
私は SD を使用して軍事用途向けの画像を生成することに興味を持ちました。アノンは SD を使用してエロアニメを作成するため、リソースのほとんどは 4chan の NSFW ボードから取得されています。興味深いことに、正規の SD WebUI にはアニメ/エロアニメ画像ボードの機能が組み込まれています...DALL-E 直後の SD の最初の使用例の 1 つはアニメの女の子を生成することであったため、エロアニメへのジャンプは驚くべきことではありません。
とにかく、これらの変人たちのテクニックはさまざまなアプリケーション、特にモデルの微調整機能のような LoRA に適用できます。このアイデアは、特定の LoRA (軍用車両、航空機、武器など) と連携して、視覚モデルをトレーニングするための合成画像データを生成することです。新しい有用な LoRA のトレーニングも興味深いものです。後の作業には、摂動の修復が含まれる可能性があります。
免責事項と情報源
Every link here may contain NSFW content, as most of the cutting-edge work on SD and LoRAs is with porn or hentai. So, please be wary when you are working with these resources. ALSO, Rentry.org pages are the main resources linked to in this guide. If any of the rentry pages do not work, change the .org to .co and the link should work. Otherwise, use the Wayback machine.
-TP
遊んでみてください!
SDでは実際に何ができるのでしょうか? Huggingface やその他の企業では、ブラウザー内にいくつかのアプリを用意しています。遊んでみてその威力を見てみましょう!このガイドで行うことは、必要なことを何でもできるようにする完全な拡張可能な WebUI を入手することです。
- ハグフェイス テキストから画像への SD プレイグラウンド
- Dreamstudio テキストから画像への SD アプリ
- Dezgo テキストから画像への SD アプリ
- ハグフェイス 画像から画像への SD プレイグラウンド
- ハギングフェイス修復プレイグラウンド
目次
- WebUIの基本
- ローカル GPU の使用状況を設定する
- Linuxのセットアップ
- さらに深くなる
- プロンプト
- NovelAIモデル
- LoRA
- モデルで遊ぶ
- VAE
- すべてをまとめて
- 一般的な SD プロセス
- プロンプトの保存
- txt2imgの設定
- 以前に生成したイメージの再生成
- エラーのトラブルシューティング
- 快適になる
- テスト
- WebUI の詳細
- プロンプト編集
- エクスフォーマー
- Img2Img
- 修復
- エクストラ
- コントロールネット
- 新しいものを作る (WIP)
- チェックポイントのマージ
- LoRA のトレーニング
- 新しいモデルのトレーニング
- Google Colab セットアップ (WIP)
- 旅の途中
- MJパラメータ
- MJ の高度なプロンプト
- ドリームスタジオ (WIP)
- 安定した大群 (WIP)
- ドリームブース (WIP)
- ビデオ拡散 (WIP)
WebUIの基本
これに入るのは少し気が遠くなります...しかし、4channer はこれを親しみやすくするために良い仕事をしました。以下は、私が行った手順を最も簡単な言葉で示したものです。あなたの目的は、Stable Diffusion WebUI (Gradio で構築) をローカルで実行して、プロンプトの表示とイメージの作成を開始できるようにすることです。
ローカル GPU 使用率の設定
後で Google Colab Pro のセットアップを行うので、どこでも好きなデバイスで SD を実行できます。まずは、PC で WebUI をセットアップしましょう。 16 GB RAM、2 GB VRAM を備えた GPU、Windows 7 以降、および 20 GB 以上のディスク容量が必要です。
- スタートセットアップガイドを完了する
- これをステップ 7 までたどり、その後はエロアニメに移ります
- モデルはそれぞれ 5 GB 以上あるため、ステップ 3 の平均インターネット速度は 15 ~ 45 分かかります。
- ステップ 7 には 30 分以上かかる場合があり、CLI で「スタック」しているように見える場合があります。
- ステップ 3 では、2.x バージョンではなく SD1.5 をダウンロードしました。1.5 の方がはるかに優れた結果が得られるためです。
- CivitAI にはすべての SD モデルがあります。 HuggingFace に似ていますが、SD 専用です
- WebUI が動作することを確認する
- 完了したら、CLI が出力する URL をコピーします(例:
127.0.0.1:7860
)(このコマンドにより CLI が閉じられる可能性があるため、Ctrl + C は使用しないでください)。 - ブラウザに貼り付けると出来上がりです。プロンプトを試してみてください、そうすればレースに出発できます
- 画像は生成時に、
stable-diffusion-webuioutputstxt2img-images
に自動的に保存されます。
- 更新するには、stable-diffusion-webui フォルダーで CLI を開き、コマンド
git pull
を入力するだけです。
Linuxのセットアップ
Windows を使用している場合は、これを完全に無視してください。少し複雑ですが、Linux でも実行することができました。私はこのガイドに従って作業を開始しましたが、かなり貧弱に書かれているため、Linux で実行するために私が行った手順を以下に示します。私は Ubuntu 20 ディストリビューションである Linux Mint 20 を使用していました。
- まずは webui リポジトリのクローンを作成します:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
- SD モデル (前のセクションと同様、SD 1.5 など) を取得します。
- モデル ckpt ファイルを
stable-diffusion-webui/models/Stable-diffusion
に置きます。 - Python をダウンロードします (まだお持ちでない場合):
sudo apt install python3 python3-pip python3-virtualenv wget git
- また、WebUI は非常に特殊なので、内部で動作するには仮想環境マネージャーである Conda をインストールする必要があります。
wget https://repo.anaconda.com/miniconda/Minconda3-latest-Linux-x86_64.sh
chmod +x Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh
- 次に、環境を作成します:
conda create --name sdwebui python=3.10.6
- 環境をアクティブ化します:
conda activate sdwebui
- WebUI フォルダーに移動し、
./webui.sh
と入力します。 - CUDA/GPU にアクセスできないというエラーが表示されるまで、少しの間実行されるはずです...これは次のステップなので問題ありません
- まず、既存の Nvidia ドライバーを消去します。
sudo apt update
sudo apt purge *nvidia*
- さて、このガイドのいくつかに従って、Linux マシンに搭載されている GPU を調べます (これを行う最も簡単な方法は、ドライバー マネージャー アプリを開くことです。そうすれば、GPU がリストに表示されます。ただし、方法は十数あります。Google で調べてください)。
- このページに移動し、Linux x86_64 の下の「最新の新機能ブランチ」をクリックします (私の場合、それは 530.xx.xx でした)。
- 「サポートされている製品」タブをクリックし、Ctrl + F を押して GPU を見つけます。リストされている場合は続行し、そうでない場合はバックアウトして「最新の Production Branch バージョン」を試してください。数字をメモします(例:530)
- ターミナルで、
sudo add-apt-repository ppa:graphics-drivers/ppa
と入力します。 -
sudo apt-get update
で更新する - Driver Manager アプリを起動すると、ドライバーのリストが表示されます。推奨されているもの (例: nvidia-driver-530-open) を選択せず、以前のもの (例: nvidia-driver-530) を正確に選択し、変更を適用してください。または、
sudo apt-get install nvidia-driver-530
を使用してターミナルにインストールします。 - この時点で、CLI を介してセキュア ブートに関するポップアップが表示され、8 桁のパスワードの入力を求められます。パスワードを設定して書き留めてください。
- PC を再起動し、暗号化/ユーザー ログインの前に、MOK キーを入力するオプションを含む BIOS のような画面が表示されるはずです (これはメモリから書いています)。それをクリックしてパスワードを入力し、送信して起動します。ここにいくつかの情報があります
- 通常どおりログインし、コマンド
nvidia-smi
を入力します。成功した場合は、表を出力する必要があります。そうでない場合は、「GPU に接続できませんでした。最新のドライバーがインストールされていることを確認してください」のようなメッセージが表示されます。 - ここで CUDA をインストールします (ここでの最後のコマンドは、新しい CUDA インストールに関する情報を出力するはずです)。このガイドから:
sudo apt update
sudo apt install apt-transport-https ca-certificates gnupg
sudo apt install nvidia-cuda-toolkit
nvcc-version
- ここで、戻ってステップ 7 ~ 9 を実行します。 「エラー: Python venv をアクティベートできません。中止しています...」というメッセージが表示された場合は、次のステップに進みます (そうでない場合は、レースに出発し、通常どおり CLI から IP アドレスをコピーして、SD でのプレイを開始できます)。
- この Github の問題には、この venv の問題のトラブルシューティングが含まれています...私にとって、うまくいったのは実行中です
python3 -c 'import venv'
python3 -m venv venv/
次に、 /stable-diffusion-webui
フォルダーに移動して、以下を実行します。
rm -rf venv/
python3 -m venv venv/
その後はうまくいきました。
さらに深くなる
- プロンプト手法については、知っておくべきことがたくさんあるので読んでください (例: ポジティブ プロンプトとネガティブ プロンプト、サンプリング ステップ、サンプリング方法など)。
- OpenArt プロンプトブック ガイド
- 決定版 SD プロンプト ガイド
- 簡潔なプロンプトガイド
- 4chan プロンプトのヒント (NSFW)
- プロンプトと画像のコレクション
- ステップバイステップのアニメガールプロンプトガイド
- SD に関する一般的な知識について読んでください。
- 精力的に安定した普及出版物
- CompVis / Stability AI Github (オリジナルの SD モデルのホーム)
- Stable Diffusion Compendium (優れた外部リソース)
- 安定した拡散リンクハブ (素晴らしい 4chan リソース)
- 安定拡散のゴールドマイン
- 簡略化された SD ゴールドマイン
- ランダム/その他SDリンク
- よくある質問 (NSFW)
- 別のよくある質問
- 安定版拡散 Discord に参加してください
- Stable Diffsion の最新ニュースを入手してください
- 2023 年 3 月の時点で、1.7B パラメータのテキストからビデオへの拡散モデルが利用可能になったことをご存知ですか?
- WebUI をいじったり、さまざまなモデルや設定などを試してみます。
プロンプト
プロンプト内の単語の順序には影響があり、前の単語が優先されます。優れたプロンプトの一般的な構造は次のとおりです。
また、別の優れたガイドでは、プロンプトは次の構造に従う必要があると述べています。