SD-WebUI拡張機能コントロールネット&オープンポーズエディターの使い方

※本記事には広告リンクが含まれています。

SD-WebUI拡張機能コントロールネット&オープンポーズエディターの使い方 AI画像生成
AI画像生成ツール『Stable diffusion web UI』用超おすすめ拡張機能コントロールネットオープンポーズエディター』の実用的な使い方写真付き説明YouTube動画で詳しく解説します💕
のいちゃん
のいちゃん
『ControlNet』アップデートに伴い随時更新中!NEW

画像生成AIツール『Stable diffusion web UI』インストール手順まとめ【保存版】公開中💕

画像生成AIツール『Stable diffusion web UI』インストール手順まとめ【保存版】
画像生成AI(人工知能)ツール『Stable diffusion web UI』のインストール手順、基本的な使い方、日本語化、エラー解決、無料で利用する方法、操作パネル(UI)概要、LoRaの使い方、プロンプト、スプリクト等を解説します。 ...

『Stable diffusion web UI』お勧め拡張機能『Image Browser』インストール方法と基本的な使い方💕公開中!

『Stable diffusion web UI』お勧め拡張機能『Image Browser』インストール方法と基本的な使い方
画像生成AIツール『Stable diffusion web UI』のおすすめ拡張機能(Extensions)『Image Browser(画像ブラウザ)』のインストール方法と基本的な使い方を写真付きで解説します。 加えて『イメージブラウザ...
のいちゃん
のいちゃん
『目次』を是非ご利用下さい💕

この記事の目次

『Controlnet』コントロールネットとは?

ControlNet』は条件追加してDiffusionモデル制御する為のニュートラルネットワーク(神経回路網)です。
ControlNet』の作者イリヤスフィール氏(Mr.lllyasviel)
『Stable diffusion web UI』用拡張機能化した『sd-webui-controlnet』はミクビル氏(Mr.Mikubill)の GitHub で公開中(※とても重要)

ControlNet』作者イリヤスフィール氏(Mr.lllyasviel)

作者:イリヤスフィール氏(Mr.lllyasviel)の『ControlNet』- GitHub。

Github – lllyasviel/ControlNet: Let us control diffusion models!

GitHub - lllyasviel/ControlNet: Let us control diffusion models!
Let us control diffusion models! Contribute to lllyasviel/ControlNet development by creating an account on GitHub.

拡張機能『SD-WEB-UI』用コントロールネット sd-webui-controlnet:ミクビル氏(Mr.Mikubill)

SD-WEB-UI用コントロールネット『sd webui controlnet』とは?

この拡張機能sd-webui-controlnet』は『Stable Diffusion web UI』用で「Stable Diffusion」モデルに「controlnet」を追加して画像生成する事が出来ます。
sd-webui-controlnet』は、作者イリヤスフィール氏の『ControlNet』を、ミクビル氏が『SD-WEB-UI拡張機能として使えるようにしたものです。

GitHub – Mikubill/sd-webui-controlnet: WebUI extension for ControlNet

GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet
WebUI extension for ControlNet. Contribute to Mikubill/sd-webui-controlnet development by creating an account on GitHub.
AUTOMATIC1111Stable Diffusion web UIコントロールネットインストールする場合は、コチラ『sd-webui-controlnet』をご利用ください。😀

『ControlNet』バージョンアップ履歴(メモ)

●拡張機能『ControlNet 1.1バージョン1.1 公式リリース開始(2023年4月中旬)NEW

GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet
WebUI extension for ControlNet. Contribute to Mikubill/sd-webui-controlnet development by creating an account on GitHub.
ControlNet 1.1』には以前の全てのモデル含まれており堅牢性結果品質向上しています詳細は後述。😀

新機能:制御モデルを必要としない新プリプロセッサreference-only(参照のみ)実装。(2023年5月13日)NEW

[Major Update] Reference-only Control · Mikubill/sd-webui-controlnet · Discussion #1236
Reference-Only Control Now we have a reference-only preprocessor that does not require any control models. It can guide ...
ControlNet 1.1.153以降必要

●新プリプロセッサ『refernce_adain』と『refernce_adain+attn』を追加
(2023年5月15日)NEW

ControlNet 1.1.171以降必要
[New Preprocessor] The "reference_adain" and "reference_adain+attn" are added · Mikubill/sd-webui-controlnet · Discussion #1280
V1.1.171 adds two new reference preprocessors: reference_adain AdaIn (Adaptive Instance Normalization) from Arbitrary St...

『Stable diffusion web UI – ControlNet』YouTube動画:のいチャンネル

画像生成AI『Stable diffusion web UI』😍超おすすめ拡張機能コントロールネット&オープンポーズエディター💕インストール方法&実用的な使い方💕AI究極ファッション!?YouTube動画

✅本動画は『sd-webui-controlnet』のおすすめ拡張機能コントロールネットオープンポーズ・エディターの【インストール方法&実用的な使い方】を具体的な使用例を交え詳しくポイントを解説しています😀 NEW
YouTube動画内で使用した架空の「なんちゃてテヘペロ雑誌」A.I Ultimate Fashion
画像生成AIツール『Stable diffusion web UI』バーチャル雑誌(AIUF)人工知能アルティメットファッション-ポーズ-001 画像生成AIツール『Stable diffusion web UI』バーチャル雑誌(AIUF)人工知能アルティメットファッション-ポーズ-002
NEW!YouTube(随時更新中)NEW👑チャンネル名のいちゃんねる ➡ https://www.youtube.com/@nowi-chan

😺『百聞は一見に如かず💕』
のいちゃん
のいちゃん
NEW!YouTube随時更新中💕😃 NEW

AI画像生成『Stable diffusion web UI』コントロールネット 1.1😍超ラスボス級新型モデル搭載💕新機能&モデル&プリプロセッサの使い方‼️👍YouTube動画

✅本動画は『Stable diffusion web UI』のおすすめ拡張機能ControlNet 1.1新バージョン公開に伴い、新たに追加された「プリプロセッサ」&「新型モデル」の機能説明変更内容を含む新操作メニュー内容説明。及び
インストール方法&基本的な使い方】を具体的使用例(画像写真)とプロンプト呪文を交え、お勧め機能ポイントを解説しています😀

AI画像生成『Stable diffusion web UI』controlnet 1.1😍新プリプロセッサ③種類実装‼魅力満載の活用できる新機能!百聞は一見に如かず💕👍

✅本動画は『Stable diffusion web UI』のおすすめ拡張機能ControlNet 1.1バージョンアップによる新機能実装に伴い、新たに追加された新プリプロセッサreference-only(参照のみ)』『refernce_adain』『refernce_adain+attn3種類使い方について解説しています。😀NEW

おすすめ拡張機能『SD WEBUI コントロールネット』『事前トレーニング済みモデル』ダウンロード・インストール方法

Stable Diffusion web UI拡張機能sd-webui-controlnet』のインストール手順を解説します。

『SD-webui-controlnet』インストール方法

①『Stable Diffusion web UI起動した状態で以下リンク先にアクセスし「Code」ボタンを開いた後、拡張機能インストール用アドレス取得の「コピーボタンクリックします。

GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet
WebUI extension for ControlNet. Contribute to Mikubill/sd-webui-controlnet development by creating an account on GitHub.
取得したアドレス: https://github.com/Mikubill/sd-webui-controlnet.git
(リンク先がアドレス変更しない限り、コピペで使えます。)

Stable Diffusion web UI-sd-webui-controlnet-install-001

拡張機能タブを開き ➡ 「URLからインストール」を選択後に「拡張機能リストのURL」の窓の所へCtrl」+「Vキーで(先ほどのアドレスを)貼付け(ペースト)します。

Stable Diffusion web UI-sd-webui-controlnet-install-002

インストール」を押すと『sd-webui-controlnet』がインストールされますが、反映させる為に次の手順。↓

インストールした『sd-webui-controlnet』を適用する為に「インストール済」タブに切り替え「適用して再起動」を押します。

『stable diffusion web UI』お勧め拡張機能『LLUL』インストール方法-003

txt2img」又は「img2img」に切り替え、新たに「ControlNetメニュー追加されていればインストール完了です。

Stable Diffusion web UI-sd-webui-controlnet-install-003

拡張機能『ControlNet』用の『事前トレーニング済みモデル』ダウンロード&インストール手順

コントロールネットバージョンアップに伴い内容を(時系列で)追記しましたNEW

『ControlNet 1.0』

以下「Hugging Face」のサイトにアクセスし学習済みの「事前トレーニング済みモデルファイル8個全てダウンロードします。

lllyasviel/ControlNet at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.

Stable Diffusion web UI-sd-webui-for-controlnet_Pretrained Models-download-001

ファイル容量が非常に大きいのでダウンロードには時間がかります
ハードディスクの空き容量には注意して下さい。
ファイル内容は、①「Canny」②「depth」③「hed」④「mlsd
⑤「normal」⑥「openpose」⑦「scribble」⑧「seg
コントロールネット(事前トレーニング済みモデル内容)全8種類輪郭検出(キャニー)Canny
深度マップ検出(デプス)Depth
キャニーよりノイズが少ない(HED)Holistically Nested Edge Detection
  → 全体的にネストされたエッジ(輪郭)検出
高速直線検出器(M-LSD)Mobile Line Segment Detection
ノーマルマップ(法線マップ)Normal map
オープンポーズ(人間ポーズ検出)Open pose
スクリブル(落書きから画像生成)Scribble = 落書き
セグメンテーション(色の割当て)Segmentation = 区分・区分け

②ダウンロードしたファイル8個全て、以下フォルダ内収納します。

例: \stable-diffusion-webui\extensions\sd-webui-controlnet\models

インストールしたモデル確実適用する為に、念の為「拡張機能」タブ→「インストール済」タブに切り替え「適用して再起動」を押します。

『stable diffusion web UI』お勧め拡張機能『LLUL』インストール方法-003

『ControlNet 1.1』

●拡張機能『ControlNet 1.1』バージョン1.1 公式リリース開始(2023年4月中旬)NEW

GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet
WebUI extension for ControlNet. Contribute to Mikubill/sd-webui-controlnet development by creating an account on GitHub.

●『ControlNet 1.1』で使用する為のモデル・ファイル・ダウンロード(Hugging Face)

lllyasviel/ControlNet-v1-1 at main
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
14種類のファイルが全て必要です。
モデルのファイル名 モデル追加後の「モデル」タブ内
control_v11p_sd15_canny
control_v11p_sd15_mlsd
control_v11f1p_sd15_depth
control_v11p_sd15_normalbae
control_v11p_sd15_seg
control_v11p_sd15_inpaint
control_v11p_sd15_lineart
control_v11p_sd15s2_lineart_anime
control_v11p_sd15_openpose
control_v11p_sd15_scribble
control_v11p_sd15_softedge
control_v11e_sd15_shuffle
control_v11e_sd15_ip2p
control_v11f1e_sd15_tile
Stable Diffusion web UI-lllyasvie_ControlNet-v1-1-model-naming-difference-001

●ダウンロードしたモデルファイル(.pth14個全て、以下フォルダ内収納します。

例: \stable-diffusion-webui\extensions\sd-webui-controlnet\models
ご注意:『SD WEB UI Forge』の場合は、以下のフォルダ内。↓
『SD WEB UI』と『SD WEB UI Forge』はモデルのインストール先が異なります。
例: \stable-diffusion-webui-forge\models\ControlNet
補足:拡張子の意味 ➡ [.pth]:モデルファイル。 [.yaml]:設定ファイル(構成ファイル)
SD-WEB-UI本体で『ControlNet 1.1』のアップデートが先に完了している場合[yaml]:構成ファイル、既にcontrolnet\models フォルダ内有ると思います。
『ControlNet 1.1』より採用された標準の ControlNet 命名規則 (SCNNR)
Stable Diffusion web UI-lllyasvie_ControlNet-v1-1-model-naming-difference-003a
➡ これにより「プロジェクト名」「バージョン」「品質タグ」「SD-モデルバージョン」「制御方法」「拡張子の種類」が一目で全て分かるようになりました。
のいちゃん
のいちゃん
一目瞭然💕

コントロールネット『Instant ID』の導入方法

①以下サイトの「Download models」の所でファイルを2つ「ipadapter」と「ControlNet model」をダウンロードして下さい。

[1.1.439] Instant ID · Mikubill/sd-webui-controlnet · Discussion #2589
Instant ID project Instant ID uses a combination of ControlNet and IP-Adapter to control the facial features in the diff...

②ファイルを2つダウンロードしたら(拡張子を正しく認識させる為に)ファイル名を次のように書き換えます。

ip-adapter_instant_id_sdxl.bin
control_instant_id_sdxl.safetensors

③2つのファイルを以下のフォルダ内に配置。

例: \stable-diffusion-webui\extensions\sd-webui-controlnet\models
以上で導入完了。使う準備が整いました。

『SD WEB UI ControlNet』の機能概要

Stable Diffusion web UI-sd-webui-for-controlnet_機能の概要説明-1280-001

① Open Pose(オープンポーズ)人型骨格(スケルトン) ➡ ポーズの抽出
② Canny(キャニー)輪郭検出 ➡ 直線&曲線エッジ(輪郭)を検出
③ M-LSD(高速直線検出器)Mobile Line Segment Detection
④ HED(Holistically-Nested Edge Detection)※ノイズが少ない
 和訳:全体的にネストされたエッジ(輪郭)検出
⑤ PidiNet(Pixel Difference network)※HEDより線が単純で綺麗
⑥ Depth / Deps LeRes(深さ/深度)
⑦ Normal Map(法線マップ)※深度マップから推定される法線
⑧ Scrible(落書き)➡ ユーザーが描いた落書きを前処理
⑨ Fake Scrible(偽の落書き)➡ 入力画像から落書き輪郭を生成
⑩ Segmentation(オブジェクトへ色を推測で割当て)

コントロールネット用 事前トレーニング済みモデルの内容

ControlNet 1.1公開に伴い改善された内容追記しました。NEW

初版『ControlNet 1.0』の基本モデル (全8種類)

① 輪郭検出(キャニー)Canny

従来型の輪郭検出器で、直線」と「曲線」を同時抽出します。

ControlNet 1.1』で人物画像の(小規模なグループが)大量回数複製される問題や、ぼやけ等の問題を改善し、より高品質合理的なものになりました。

② 深度マップ検出(デプス)Depth

これは「オブジェクト」が存在する場所が、どれ位離れた位置にあるのかを画像に反映させたい時に役立ちます。

ControlNet 1.1』で、新しい深度モデルは比較的偏りが無く、異なる深度推定、異なるプリプロセッサ解像度、又は「3Dエンジン」で作成された実際の深度も上手に機能するようになりました。

③ (HED)Holistically Nested Edge Detection 全体的にネストされたエッジ(輪郭)検出

キャニー(Canny)よりノイズが少ない。
ControlNet 1.1』で「HED」の名称(愛称)を ➡「Soft Edge」に変更
ぼやけ等の問題を改善し、より高品質になりました。

④ 高速直線検出器(M-LSD)Mobile Line Segment Detection

これは、インテリア、建物、街並みなどの輪郭を検出する時に便利です。

元画像 輪郭検出後 プロンプトに従い画像生成
MLSD-pixabay-元画像-001a MLSD-pixabay-輪郭検出後-002 MLSD-realistic, luxury castle,(リアルで豪華な城)-001
プロンプトの例: realistic(現実的), luxury castle(豪華な城)
Canny」と同様に『ControlNet 1.1』で、大量複製やぼやけ等の問題を改善。

⑤ ノーマルマップ(法線マップ)Normal map

コントロールネット のノーマルマップは(視覚的に見えている)2次元(2D)部分のみを抽出する為、ゲームの3Dモデルキャラクター(3次元)等には使用できません。
ControlNet 1.1』で、プリプロセッサが比較的正しいプロトコル(NYU-V2 の可視化方法)で法線マップ推定するようにトレーニングされ合理的になりました。
『ControlNet 1.1』を使用した画像生成結果
Prompt:spider woman, 21yo, beautiful, cinematic, pale skin, master piece
(スパイダーウーマン, 21歳, 美しい, シネマティック, 青白い肌, 傑作)
元画像(Before) ノーマルマップ抽出 画像生成後(After)
ControlNet 1.1 sample-original-before-005b ControlNet 1.1 normal_vae-normal-sample-001b ControlNet 1.1 normal_vae-after-sample-001b
Steps: 50, Sampler: Euler a, CFG scale: 7
のいちゃん
のいちゃん
ピーター・パーカーもビックリ💕

⑥ オープンポーズ(人間ポーズ検出)Open pose

これは、人型モデルの主要な部分(骨格・部位)を読み取り検出します。

オープンポーズを利用したコントロールネットの流れ図
Stable Diffusion web UI-sd-webui-controlnet-オープンポーズを利用したコントロールネットの流れ図-001
ControlNet 1.1』で顔と手」に関して、より多くの入力をサポート
「元画像からのポーズ読み取り」による結果が、より高品質正確なものになりました。

⑦ スクリブル(落書きから画像生成)Scribble = 落書き

コントロールネットに手書きの「落書き画像」等を読み取り、画像を生成できます。
ControlNet 1.1』で、ペン太さが比較的厚い場合でも、うまく機能するようになりました。(最小幅: 1 ピクセル)

⑧ セグメンテーション(色の割当て)Segmentation = 区分・区分け

人工知能の知識に基づき、オブジェクトの色を推測(たぶんこの色でしょ?みたいな感じ)で割り当てます。(予測された結果=色が違っている場合もある。)
ControlNet 1.1』で「COCO プロトコル」をサポート
従来の色数(カラー)「150色」から ➡「182色」に増加

マルチコントロールネット(Multi ControlNet)の設定方法

マルチコントロールネット(Multi ControlNet)』を使用すると「プリプロセッサ」や「モデル」を複数同時使用できます。
つまり「A」と「B」と「C」の要素を合成(合体)させて「D」を作る事が出来る。
『マルチコントロールネット(Multi ControlNet)』のユーザーインターフェイス
Stable Diffusion web UI_マルチコントロールネットのインターフェイス-001a

●「マルチコントロールネット」を使う為の設定方法は非常に簡単です。

SD-WEB-UI』の「設定」タブから ➡「ControlNet」を選択

その後「Multi ControlNet」のスライダーを「1」から「2」又は「3」にして「設定を適用」した後に「UIの再読込み」を実行

「4」以上は明確な目的が有る場合以外はお勧めしません。

NEW『ControlNet 1.1』の操作画面(ユーザーインターフェイス)

マーキングしてある部分が新たに、バージョンアップ変更された箇所です。NEW

ウェブブラウザで日本語化済み
『ControlNet 1.1』SD-WebUI-User-Interface-JP-001(説明用)
「プリプロセッサの解決」と書かれている箇所はブラウザ翻訳の誤訳です。
 ➡ 正しくは「プリプロセッサの解像度」(Preproceccor Resolution)

新プリプロセッサreference-only(参照のみ)』実装『ControlNet 1.1.153』以降

新プリプロセッサreference-only(参照のみ)』は、任意の独立した元画像コントロールネット内の画面ドロップ(挿入)し(必要に応じて)プロンプト入力後に「画像生成」する事で、元画像のイメージ(外観)を可能な限り受け継ぎ(引き継ぎ)出力画像に反映する事が出来ますNEW
使用例①:『reference-only(参照のみ)』だけを使用する
以下画像は「txt2txtタブ内コントロールネット元画像挿入し、元画像を事前に解析した結果のプロンプトを入力し『reference-only(参照のみ)』を使用して生成したものです。↓
プリプロセッサ『reference-only(参照のみ)』を使用したサンプル画像(比較用)
元画像(Before) 生成後(After)
『Stable diffusion web UI』new preprocessor-reference-only-generated sample-before-001a 『Stable diffusion web UI』new preprocessor-reference-only-generated sample-after-002a
➡ これにより、元画像のイメージ(容姿:顔立ち、構図、色使い、等々)を可能な限りを引き継ぎ(崩さずに)新たな別の画像を作る事が出来ます💕
使用例②:プリプロセッサ『reference-only(参照のみ)』と『オープンポーズ』をマルチコントロールネットで2個併用する
メリットは当然、元画像のイメージを継承しつつ、ポーズも真似る事が出来る。
プリプロセッサ『reference-only(参照のみ)』と『オープンポーズ』をマルチコントロールネットで2個併用したサンプル画像(比較用)
元画像(Before)
ControlNet Unit 0
『オープンポーズ』
ControlNet Unit 1
生成後(After)
『Stable diffusion web UI』new preprocessor-reference-only-generated sample-before-001a 『Stable diffusion web UI』openpose-detected-map- sample-003a 『Stable diffusion web UI』new preprocessor-reference-only-and-openpose-generated sample-after-003a
コントロールネット複数同時使用出来るマルチコントロールネット」の設定方法は非常に簡単です。↓↓
SD-WEB-UI』の「設定」タブから ➡「ControlNet」を選択
その後「Multi ControlNet」のスライダーを「1」から「2」又は「3」にして「設定を適用」した後に「UIの再読込み」を実行。(4以上は目的が有る場合以外お勧めしません)
のいちゃん
のいちゃん
ほぼマンマ💕似過ぎでしょ!
使い方のポイント:プロンプト」や「重み(weight)」「CFGスケール」等、各種パラメータ(設定値)の影響を(少なからず)受ける為、適正値を「XYZプロット」等を使い探りながら目的のイメージに近いものを選ぶと良いでしょう♪
使用例③:プリプロセッサ『reference-only(参照のみ)』と『オープンポーズ』『シャッフル(shuffle)』をマルチコントロールネットで3個同時に使用する
①背景透過済み画像『reference-only』参照し、②ポーズを『オープンポーズ』で真似つつ、③透過された部分背景イメージ要素を『シャッフル』で追加して合成します。
プリプロセッサ『reference-only(参照のみ)』と『オープンポーズ』を『シャッフル(shuffle)』マルチコントロールネットで3個同時に使用したサンプル画像(比較用)
元画像①(Before)
『reference-only』
ControlNet Unit 0
元画像②(Before)
『オープンポーズ』

ControlNet Unit 1
生成後(After)
背景透過済みPng画像 背景透過済みPng画像  
『Stable diffusion web UI』new preprocessor-reference-only-generated sample-before-non-BG-001a 『Stable diffusion web UI』new preprocessor-reference-only-generated sample-before-non-BG-001a プリプロセッサ『reference-only(参照のみ)』と『オープンポーズ』『シャッフル(shuffle)』をマルチコントロールネットで3個併用した結果のサンプル画像005a
元画像③(Before)
『シャッフル』
ControlNet Unit 2
プリプロセッサでシャッフルされた中間の結果画像
sandy-beach-sample-001 shuffle-detected-sample-sandy-beach-001a
使用した感想(まとめ)

●右手の指の先が伸びておらず「何か握っている」のが気に入らないが、まずまずの結果。

顔立ち」に関しては、ほぼ同一人物と思えるほど非常に精度良い

あとは「各パラメータ(プロンプト等)」の条件で精度を上げていけば良いという印象。

●「マルチコントロールネット」を使って画像生成(合成)する場合、透過画像(背景切抜きPng画像)等を使用すると(追加したい要素のみを)非常に合成しやすい

新プリプロセッサreference-adain』『reference_adain+attn』実装『ControlNet 1.1.171』以降

reference-adain』=reference AdaIn (Adaptive Instance Normalization) 
和訳:参照 – Adain(適応的な実例の正規化)
reference_adain+attn』= reference AdaIn (Adaptive Instance Normalization) + Attention Link
和訳:参照 – Adain (適応的な実例の正規化) + 注目リンク

AdaIn (Adaptive Instance Normalization) に関する文献:コーネル大学(Cornell University)】(※全米屈指の名門校)↓↓

Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization
Gatys et al. recently introduced a neural algorithm that renders a content image in the style of another image, achievin...

●以下画像は「txt2txtタブ内コントロールネット元画像挿入し、元画像を事前に解析した結果のプロンプトを入力『reference-only』『reference-adain』『reference_adain+attn』3種類を使用して生成したものです。↓

プリプロセッサ『reference-only』『reference-adain』『reference_adain+attn』3種類を使って生成したサンプル画像(比較用)
 
元画像 reference-only reference-adain reference_adain+attn
『Stable diffusion web UI』new preprocessor-reference-only-generated sample-before-001a 『Stable diffusion web UI』new preprocessor-reference-only-generated sample-after-002a new preprocessor-reference-adain-generated sample-after-004a new preprocessor-reference_adain+attn-generated sample-after-005a
reference-only』と③『reference_adain+attn』は、結果がほぼ同じ印象。
reference-adain』は、少しサッパリした感じがする。
のいちゃん
のいちゃん
どれも捨てがたい💕

ControlNet 1.1』バージョンアップで「追加・変更」された操作メニュー内容

画像に白い背景と黒い線がある場合は、プリプロセッサを「反転」に設定します』と表記されプリプロセッサの中に統合されました。

✅「ピクセルパーフェクト」は、プリプロセッサが選択されている場合にのみ反応し、プリプロセッサ使用する際の解像度を設定できます。

ピクセルパーフェクト」をオンにすると、プリプロセッサ (アノテーター) の解像度を手動で設定する必要がなくなります

プレビューを許可」に✅チェックを入れると、右側にプレビューが表示されます。

「📝」ボタンを押すと『新しいキャンバスを開く(Open New Canvas)』の画面が開きます。

赤色の「💥」ボタンを押すと、プリプロセッサを使用した場合の結果を(事前に)右側のプレビュー画面に表示してくれます。

画像生成しなくても事前に見れるので、非常に使用頻度の高いボタン💕
『ControlNet 1.1』SD-WebUI-User-Interface-JP-001(説明用)  

推測モード」が3種類に増えました。

●「バランスのとれた」=「Balanced
●「私のプロンプトはもっと重要」=「My prompt is more important
●「ControlNetの方が重要」=「ControlNet is more important
私が使用した感触では「私のプロンプトはもっと重要」が非常に良い感じの仕上がりた💕つまりプロンプト優先。
このモードは「プロンプト優先」なので、目的イメージ明確ハッキリしている場合は、プロンプト優先する方が良い具合に仕上がります♬
➡ 逆に、ガチャ要素を加えクリエイティブに仕上げたい場合は「バランスのとれた」又は「ControlNetの方が重要」を選ぶと(いい意味・悪い意味の両方で)予想外の結果を得る事が出来ます。

●それと、以前『ControlNet 1.0』の時にあった、ノーマルマップ用の「RGBからBGRボタンは無くなりました

NEW『ControlNet 1.1』追加されたモデルの機能概要 (全6種類)

ここがポイント!コントロールネット(共通)いずれも画像生成する際に、任意の「テーマ」や「キーワード」をプロンプトとして追記する事で、元画像雰囲気(形状や色など)保ちつつ別のものへ変化させる事が出来る。
のいちゃん
のいちゃん
どれも呪文を同時に詠唱すれば良い💕

①ラインアート(Lineart)線画

線画をより安定させて制御し、画像 (線画および線画コース) から手動で描かれた(手書き風)の「詳細な線画(又は粗い線画)」を生成できます。
現実的(Realistic)なモデル向き。
Prompt:bag
(かばん)
Prompt:Michael Jackson’s concert
(マイケル・ジャクソンのコンサート)
ControlNet 1.1 Lineart-sample-001a ControlNet 1.1 Lineart-sample-002
画像はクリックで拡大💕再度クリックで閉じます♪😀
そして、私が実際に画像生成してみた結果がコレ(^^♪↓
Prompt:wonder woman, 21yo, beautiful, cinematic, pale skin, master piece
(ワンダーウーマン, 21歳, 美しい, シネマティック, 青白い肌, 傑作)
元画像(Before) 線画抽出 生成後(After)
ControlNet 1.1 Lineart-sample-original-before-005b ControlNet 1.1 Lineart-sample-Lineart-005b ControlNet 1.1 Lineart-sample-after-005b
Steps: 50, Sampler: Euler a, CFG scale: 7
のいちゃん
のいちゃん
かなり高品質実用的便利機能💕

②アニメ・ラインアート(Anime Lineart)※モデル名:Lineart_Anime

その名の通り、アニメ(2D/2.5D)向きラインアート・モデル
Prompt:1girl, in classroom, skirt, uniform, red hair, bag, green eyes
(1人の女の子、教室で、スカート、制服、赤髪、バッグ、緑の目)
ControlNet 1.1 Lineart-anime-sample-001

③シャッフル(Shuffle)=混ぜ合わせる

このモデルは、再構成するようにトレーニングされています。
その為、目標とする全体的な雰囲気(主な趣旨)を残しつつ、画像の構成(形や配置など)を絶妙に変化させる事が可能です。
Prompt:hong kong
(香港)
Prompt:iron man
(アイアンマン)= 鉄人
ControlNet 1.1 Shuffle-sample-001a ControlNet 1.1 Shuffle-sample-002a

④Pix2Pix(写真 ➡ 写真)/(画像 ➡ 画像)

このモデルは、指示プロンプト(50%)説明プロンプト(50%)でトレーニングされています。その為、
○○にする!と英語のプロンプトで指示を加える事で、元画像に新しい追加要素が加えられます。
例:「make the girl cute」=「女の子をかわいくする」。建物や背景などでも利用可。
Prompt:make it on fire
(火をつける)
Prompt:make he iron man
(彼をアイアンマンにする)
ControlNet 1.1 Pix2Pix-sample-001a ControlNet 1.1 Pix2Pix-sample-002a
指示プロンプトを記入する際のポイント作者様イリヤスフィール氏(Mr.lllyasviel)によると「○○(X)を○○(Y)にする」よりも、「○○(Y)にする」等の指示の方が上手く機能するそうです。😀

⑤Inpaint(コントロールネット・インペイント)

Automatic1111の『img2img』タブ内に有る「インペイント」の、コントロールネットを使用した安定版。
Prompt:a handsome man
(ハンサムな男)=イケメン
 
ControlNet 1.1 Inpaint-sample-001a  
使い方大きく分けて2種類方法有るので、特徴や注意点などを解説します。↓
①コントロールネット側の画面に元画像をドロップ(挿入)してインペイントを使用する。
コントロールネット側画面画像ドロップして黒く塗りつぶす(マスクする)方法は、それ以外の周囲の部分に多少の影響が出ます。
改善する方法は「推測モードの変更」や「コントロールステップを下げる」事で、周囲への影響が多少改善されます。
これは、以下『ControlNet 1.1』リンク(イリヤスフィール氏「インペイント」説明)にも「マスクされていない領域を変更せずに修復」の公式サポートは、Automatic1111のみと書かれています。↓
GitHub - Mikubill/sd-webui-controlnet: WebUI extension for ControlNet
WebUI extension for ControlNet. Contribute to Mikubill/sd-webui-controlnet development by creating an account on GitHub.
②「img2img」タブ内のインペイント画面に元画像をドロップ(挿入)してコントロールネット・インペイントを使用する。
マスクされていない領域(黒く塗りつぶしていない部分)を変更せずに画像を修復する場合ControlNet で Automatic1111』を使用します。

①手順はまず ➡『ControlNet』を最新バージョン更新し、端末を含めて完全再起動

AUTOMATIC1111」の「img2img」タブ内の「inpaint」に移動

コントロールネット(ControlNet)を開き、プリプロセッサを「inpaint_global_harmonious」に設定し、モデルcontrol_v11p_sd15_inpaint」を使用して、コントロールネットを✅有効にしてから画像生成します。

つまり、従来の「IMG2IMG のインペイント」へ画像挿入後に『ControlNet 1.1』を有効にして「プリプロ&モデル両方」を選択して画像生成すると、マスクされていない領域に不要な変更を加える事無く画像生成できます
詳しい内容は、作者様イリヤスフィール氏(Mr.lllyasviel)のレポートをご覧ください↓↓
[New Feature] Guidelines for using inpaint in A1111 · Mikubill/sd-webui-controlnet · Discussion #1143
Now the ControlNet Inpaint can directly use the A1111 inpaint path to support perfect seamless inpaint experience. It su...

⑥タイル(Tile)

このモデルは全体として主に2種類の動作があります。
元画像の詳細を無視して、新しい詳細を生成します。
ローカル・タイルの「セマンティクス」とプロンプトが一致しない場合は、グローバル・プロンプトを無視し、ローカル・コンテキストで拡散をガイドします。つまり↓
➡ 元画像の詳細とプロンプトが一致しない場合、外部から指示されたプロンプトの文脈を無視し、元画像の文脈で拡散(Stable Diffusion)をガイド(導き案内)します。
なので、例えば元画像の一部分(又は全体)に「ぼやけ」等が有る場合画像の詳細を無視し、新しい詳細を生成して「ぼやけ等」が無い綺麗な画像を作る事が出来る。😀
Prompt:dog on grassland
(草原の犬)
 
ControlNet 1.1 tile-sample-001a ← 元画像の「ぼやけ」に対して、悪い詳細を削除し、洗練された詳細を追加できます。

追加された拡張機能のメニュー操作画面を日本語化する

sd-webui』は「汎用ウェブブラウザ」を使用するツールなので(既にsd-web-ui を日本語化済みでも)ブラウザの一般的な翻訳機能が(併用して)利用可能です。

●翻訳方法は、画面内のメニューが何も無い所で右クリックし、表示されたメニューで「日本語に翻訳」を選べば日本語化されます。

もしくは、アドレスバー一番右側にも小さな翻訳アイコン」が有るので、使いやす方をご利用下さい。
ブラウザ翻訳方法-001 ブラウザ翻訳方法-003
もちろん ブラウザサポートする主要各国言語(英➡️和 以外)も対応可
しかし、ブラウザ翻訳を利用(併用)し日本語化する方法は、既に日本語化されている文章の「誤訳」や「略称化」、一部の英単語が「誤訳」される場合が有るのでご注意下さい。

拡張機能『sd-webui-controlnet』メニュー操作画面の基本的な使い方

既に「生成済みの画像」又は「お持ちの写真」からポーズを読み取る場合は、クリックして画像アップロードするか、もしくは直接画面の上にドロップします。

ControlNet 1.0
ウェブブラウザで日本語化済み
ControlNet 1.1
Stable Diffusion web UI-sd-webui-controlnet-interface-jp-NEW002a 『ControlNet 1.1』SD-WebUI-User-Interface-JP-001(説明用)

●画像が①に挿入されると、画像を編集できる状態になります。

Stable Diffusion web UI-sd-webui-controlnet-interface-jp-NEW005-1280

ペン:スライダーでペンの太さを変更可能
アンドゥボタン:操作を元に戻す/やり直し/一つ手前の内容に戻す
バツボタン(×):アップロードした画像を削除
sd-webui-controlnetコントロールネット・ユーザーインターフェース(UI)
『ControlNet 1.0』
ウェブブラウザで日本語化済み
『ControlNet 1.1』
Stable Diffusion web UI-sd-webui-controlnet-interface-jp-NEW002a 『ControlNet 1.1』SD-WebUI-User-Interface-JP-001(説明用)
↑ 画像はクリックで拡大💕再度クリックで閉じます。↑

②✅「有効」:コントロールネット機能有効にする為に、チェックボックスに✅チェックを入れ、オン/オフ切替スイッチになっています。

③「入力色を反転」ドロップした画像背景白い場合は、✅チェックを入れて反転します。

WEB-UI は「黒い背景」を「白い紙」と同じように認識している為、ご自身が(白い紙で)作成されたイラスト等を挿入する場合、✅チェックを入れて反転します。
ControlNet 1.1』で「入力色を反転」プリプロセッサの中に統合されました。

④「RGB から BGR」:これは、ノーマルマップ(法線マップ)読み込む時に使うのですが、「R/G/B」は「レッド/グリーン/ブルー」という意味で、↓

「プリプロセッサ(有り)」利用して「ノーマルマップ」を生成する為の出力は「RGB」ですが、「プリプロセッサ(無し)」で「ノーマルマップ」から「画像」を生成する為の入力は「BGR」になっている為、✅チェックを入れて作業します。

画像 ➡ ノーマルマップ(プリプロ有り ノーマルマップ ➡ 画像(プリプロ無し
Stable Diffusion web UI-sd-webui-controlnet-normalmap-出力-001a Stable Diffusion web UI-sd-webui-controlnet-normalmap-入力出力-001a
ControlNet 1.1』で「RGB から BGR」ボタンは無くなりました。

⑤「低 RAM」:メモリが少ないGPU(8GB以下のグラボ)をお使いの場合チェックを入れる事が推奨されています。

sd-webui-controlnetコントロールネット・ユーザーインターフェース(UI)
『ControlNet 1.0』
ウェブブラウザで日本語化済み
『ControlNet 1.1』
Stable Diffusion web UI-sd-webui-controlnet-interface-jp-NEW002a 『ControlNet 1.1』SD-WebUI-User-Interface-JP-001(説明用)
↑ 画像はクリックで拡大💕再度クリックで閉じます。↑

⑥「推測モード」:✅チェックを入れると、人工知能が程よく考え適した画像を、推測して出力してくれます。

追記:ControlNet 1.1』で推測モード3種類になりました。

⑦「カメラモード」ウェブカメラデジタルカメラを使用している場合カメラアイコンクリックする事で、ご自分のポーズを撮影して画像に適用できます。

ウェブブラウザにカメラ映像を読み込む為の許可を与える必要があります。(初回のみ)
現在のWEB-UIの仕様だと思いますが、撮影した画像が鏡のように左右反転します。
カメラモード  
Stable Diffusion web UI-sd-webui-controlnet-camera-mode-001  

ドロップした画像」や「撮影した画像」の大きさを、生成(出力)」するの画像サイズ(幅と高さ)へ転送変更します。

⑨「プロプロセッサ」:これは画像を抽出(処理)する為の「前処理器」です。

その為、既に抽出済みの「スケルトン」や「ノーマルマップ」等を利用(使用)して画像を生成する場合には、プリプロセッサ(前処理)必要ありません

⑩「モデル」:プリプロセッサの機能に合わせて、モデルを選択するようにします。

プロセッサ(Preprosessor) モデル(v1.0)
Stable Diffusion web UI-sd-webui-controlnet-interface-Preprocessor-models-002-JP 

Stable Diffusion web UI-reload icon-001 ボタン:モデルが読み込まれていない場合、ボタンをクリックする事で内容を更新されます。

sd-webui-controlnetコントロールネット・ユーザーインターフェース(UI)
『ControlNet 1.0』
ウェブブラウザで日本語化済み
『ControlNet 1.1』
Stable Diffusion web UI-sd-webui-controlnet-interface-jp-NEW002a 『ControlNet 1.1』SD-WebUI-User-Interface-JP-001(説明用)
↑ 画像はクリックで拡大💕再度クリックで閉じます。↑

⑫「重さ(Weight)」:コントロールネットの機能を利用して設定された内容が(出力画像の結果に)どれ位の影響力を与えるかを数値(値1=100%)で決定します。

⑬⑭「ガイダンス開始」「ガイダンス終了」:コントロールネットが適用する、合計ステップ数の割合(%)です。

これは、⑫「重さ(Weight)」の微調整で活用できると思います。

⑮「リサイズモード」:拡大・縮小の種類。

●「サイズを変更するだけ」の場合は、縦横比を維持せずに拡大縮小します。
●「フィットするようにスケーリング(内側にフィット)」:内側にフィットします。
●「封筒(外寸)」=Envelope (Outer Fit):外側にフィットします。

⑯「キャンバスの幅」「キャンバスの高さ」⑰番の「空白のキャンバスを作成」する時の大きさを、ここの数字(値)で決定します。

⑱「アノテーターの結果をプレビュー」「アノテーターの結果を非表示」:コントロールネットを使用後に抽出された結果(内容)を、①番の画像の所に表示したり隠したり出来ます。↓参照

追記:ControlNet 1.1』でこの(2つの)大きなボタンは無くなり、小さな赤色の「💥」ボタンで簡単に表示出来るようになりました。
アノテーターの結果が表示されるまでの画像生成サイクル
Stable Diffusion web UI-sd-webui-controlnet-アノテーターの結果-001
例:オープンポーズ使用してプロンプトに従い「2Bコスプレ画像」を生成
その後 ➡ 表示された内容(結果の画像)を、注釈(補足)=アノテーターとして番の所に表示

コントロールネットの設定(Settings)

sd-webui-controlnetコントロールネットの「設定」で重要な、おすすめ設定について解説します。

Stable Diffusion web UI-sd-webui-controlnet-settings-001

コントロールネットで生成された「検出済みマップ(Detected maps)」を、「detectmap の自動保存を許可」に✅チェックを入れる事で保存できます。
オープンポーズ」「キャニー」「M-LSD」「ノーマルマップ」等々全て
保存先は「WEB-UI フォルダ」内にある以下のフォルダ。↓(※デフォルトの場合)
~\outputs \txt2img-images フォルダ内
検出されたマップの保存用ディレクトリ」の所で、お好きな名前にフォルダ名を変更できます。(※英文字推奨)

拡張機能『OpenPose Editor』オープンポーズ・エディターのインストール方法&基本的な使い方

『Openpose Editor』とは?

この拡張機能は『stable-diffusion-webui(Automatic1111)の『Openpose Editor』で、ポーズの編集ポーズの検出が出来ます。
GitHub - fkunn1326/openpose-editor: Openpose Editor for AUTOMATIC1111's stable-diffusion-webui
Openpose Editor for AUTOMATIC1111's stable-diffusion-webui - fkunn1326/openpose-editor

『Openpose Editor』のインストール手順(方法)

①『Stable Diffusion web UI起動した状態で以下リンク先にアクセスし「Code」ボタンを開いた後、拡張機能インストール用アドレス取得の「コピーボタンクリックします。

GitHub - fkunn1326/openpose-editor: Openpose Editor for AUTOMATIC1111's stable-diffusion-webui
Openpose Editor for AUTOMATIC1111's stable-diffusion-webui - fkunn1326/openpose-editor
取得したアドレス: https://github.com/fkunn1326/openpose-editor.git
(リンク先がアドレス変更しない限り、コピペで使えます。)

拡張機能」タブで「URLからインストール」を選び「拡張機能のリポジトリのURL」に貼り付け後、「インストール済」タブで「適用してUIを再起動」ボタンを押せばインストールされます。

Stable Diffusion web UI-sd-webui-for-openpose-editor-install-1280-001

『Openpose Editor』オープンポーズエディターの基本的な使い方

オープンポーズ・エディター」のメニューを使用して、出来る事の内容を解説します。

『Openpose Editor』ユーザーインターフェース(メニュー説明)
Stable Diffusion web UI-extension-Open Pose editor-interface-JP-001
↑ 画像はクリックで拡大💕再度クリックで閉じます。↑

は、作成するディテクトマップ(スケルトン)大きさ(幅と高さ)数値を、ここのスライダーで決定します。

②「Add(追加)」: ボタンを押すと人型(スケルトン)追加され、マウスドラッグする事で(お好みでの位置へ)移動できます。

人型スケルトン移動した後に、※②の枠が表示されている状態で、枠の部分(※②)をドラッグする事で拡大・縮小できます。
②以外の箇所を一度クリックすると人型スケルトン位置固定され、移動出来なくなるので注意。
配置をやり直す場合は「③リセット」でスケルトン削除し、新たに「②追加」する事で再度作成できます。

Stable Diffusion web UI-extension-Open Pose editor-interface-JP-001

③リセットボタン:人型スケルトンのポーズをリセット出来ます。

④JSONからロード:JSONファイルをロード出来ます。(※あまり使わない)

JSON=JavaScript Object Notation

⑤「Detect from image(画像から検出)」: クリックするとエクスプローラー起動し、指定された画像からポーズ検出できます。

⑥「Add Background image(背景画像を追加)」: クリックするとエクスプローラー起動し背景追加できます。

⑦~⑨「プリセット/プリセットをロード/プリセットを保存」

作成したプリセットの選択ロード(読み込み)保存が出来ます。

Stable Diffusion web UI-extension-Open Pose editor-interface-JP-001

⑩「JSONを保存」「PNGを保存」「txtimgに転送」「img2imgに転送」

作成した「人型スケルトン」を、JSONファイルで保存PNG画像で保存txtimgに転送img2imgに転送できます。
人型スケルトンコントロールネット転送したは、「プリプロセッサ」は無しの状態で使用してください。(※前処理が済んでいる為)

まとめ

SD-WebUI』の拡張機能コントロールネット」&「オープンポーズ・エディター」は、未来への可能性を未知数に秘めた素晴らしい機能です。

●私の「YouTube動画」の中でも実用的な使用例を参考としてご紹介していますが、画像著作権ツール利用権などなど、その辺りの問題が解決されれば、すぐにでも業務(ビジネス)に利用して運用・展開できそうな内容が既に備わっています。

現在も日々急速に発展し続けている「AI画像生成業界が更に、どこまで発展し続けるのか私も今後が非常に楽しみです♪
のいちゃん
のいちゃん
ご講読ありがとうございました💕

>> 「自由生活情報サイト!コスパるTiME」TOPへ