ちょっと昨日の続きで、もう少しだけやってみたので自分用のメモです。
Stable Diffusion Web UIの「ControlNet」の機能を使う。
よく利用されるモデルはとりあえずこれとのこと。
canny:輪郭
openpose:棒人間
のように画像を認識する。
先ず、生成したいポーズの画像を用意する。
(画像が見つからない場合、ボーズ集を検索したり、人形でポーズを作れる「DesignDoll」というソフトを使ってみる)
描くのが人だけなら、身体を棒人間の様に認識するopenposeが簡単。
↓DesignDollで適当に作った元画像
↓出力結果。ちゃんとポーズは合ってますよね。
以下は適当な写真を読み込ませてみました。(リアル人物なので元画像は載せられません)
↓少し叡智なポーズ
こういうポーズをやるとどんどん変態チックになっていくと思うので、ちょっとだけで。
↓バストショット。普通の正面写真でしたが、手が毎回違うのと、何故か帽子を被った。
もちろん髪色とかは指定でき、プロンプトにblack hairとか書けばいいです。
例えばhatsune mikuとかAIが認識しているキャラなら、それをプロンプトで指定して、ControlNetで認識させた画像のポーズに出来る。
広告とか
-- 記事一覧ページへ --
(next)画像がぼやけている »
« Stable Diffusionが動いたよ(AI画像)(prev)