//=time() ?>
旅する女医というキャラを書きたくて、t2iを繰り返したけど、イマイチしっくりこない。そこで元絵を描いてから #StabuleDiffusion のi2iで生成と手描き修正を繰り返して、ようやくここまできた
やはりi2iの方が性にあってるな
ControlNetを用いてのt2i出力⇒加筆誘導テスト。領域拡張した部分(上と右)、空は境界をぼかしてますが木の部分はそのままにしています(ぼかすと木と空の境目が全体でぼけ始めたので) #WaifuDiffusion #AIイラスト
WD1.5をt2iベースでお試し。やはり背景含め綺麗に出ますね。独自ノイズ画像ベースの手法はいよいよ凍結も視野に入れるべき…かもしれません。 #WaifuDiffusion #AIイラスト
従来のi2i用ノイズ画像(1枚目)と数日前から試している新しいノイズ画像(2枚目)をSeed、Prompt揃えて仕上げ無しで比較。3枚目は同様のPrompt内容でt2i。 #WaifuDiffusion #AIイラスト
Recently, I really like using i2i to create new images with a character style im going after. This has been better in managing the consistency.
If this was helpful. Give a ❤️ and RT.
(1) 768x768 t2i
(2) 900x900 Edited
(3) & (4) 900x900 i2i
#AIart #AIイラスト #stablediffusion
1 元画像(t2i+hires)
2 そこからdepth出して手とか色々直したdepth画像
3 t2i+CN→i2i+CN
基本やってることは前と同じ
hires使いたい……
#DeDeDeArt
#AIイラスト
i2i前のt2i画像(*‘ω‘ *)
ちょっとイケメン度増していい感じになりました(*‘ω‘ *) #stablediffusion
ControlNetのCannyで自分が過去に描いた線画を着色してみた
t2iでCannyで出力した後i2iでもCannyを使えば結構模様やディテールを忠実に再現しようとしてくれて凄い(AIが)
同じプロンプト 同じseed 同じモデル
1枚目 t2i 768×768
2枚目 t2i hires 1.5倍 1152x1152へ
3枚目 1枚目をi2iに入れて1152x1152で
もうぼくわかんないむずかしい