画像生成AI

拡張機能(Extensions)について

shige

学習モデルとVAEをインストールするだけでも、画像生成はできますが、拡張機能もインストールしておけば、より豊かな表現ができるようになります。

たくさんの拡張機能が公開されていますが、利用している主な拡張機能は以下の3つです。

sd-webui-controlnet(コントロールネット)

「ControlNet」はStable Diffusionモデルに追加条件を加えることで、画像生成におけるコントロールを飛躍的に向上させる拡張機能です。これがあるとないとでは表現力が格段にことなりますので、まずは追加しておきましょう。

ControlNetを使用するメリットには、以下の機能があります。

画像を高画質化・高解像度化する(Tile/Blur)。

選択した範囲を修正する(inpaint)。

棒人間(openpose)を使用してポーズを指定する。

元の画像のスタイルを保持しながら画像を生成する(reference)。

線画(canny)を使用してポーズを指定する。

抽象的な線画から画像を生成する(scribble)。

などなど、たくさんの機能がありますが、サークルmonmonでは上から4つの機能をよく利用しています。

また、複数のモデルを組み合わせて使用できる(Multi ControlNet機能)も備えているので、例えば、inpaintとopenposeを組み合わせて出力することもできます。

ControlNetはStable Diffusionの画像生成の表現力を飛躍的に高めるためには不可欠なツールです。

adetailer(アディテーラー)

「ADetailer」は生成された画像の顔や手指の修正を自動で行う拡張機能です。

Stable Diffusionでは特に全身画像を生成する際、顔や手が崩れることがありますが、ADetailerを使用することでこのような問題をある程度解決することが可能です。

生成されたイラストに対して顔部分の補正を後から行えるので、表情の差分も作成できます。

sd-dynamic-prompts(ダイナミックプロンプト)

「sd-dynamic-prompts」は、髪型やポーズなどをランダムに出力したい場合に必要な拡張機能です。複数の髪型やポーズをテキスト(プロンプト)に記述することで、その中から毎回ランダムな画像が生成されます。ランダム生成には欠かせない拡張機能です。

これらの詳しい使い方については、様々なサイトで紹介されていますので検索してみてください。

特に「ControlNet」は使い出すととても便利な拡張機能です。ぜひ活用してください。

ABOUT ME
シゲ
シゲ
会社員をしながら、副業でなんとか収入を得られないか試行錯誤しています。 その過程や収支を公開しています。
記事URLをコピーしました