//=time() ?>
最近のイラストづくり、i2iや加筆修正を繰り返して「過多になりがちな情報量を適度に落とし整えつつ、描くオブジェクトの説得力を上げる」みたいな方向性でやってるんだけども、こう並べてみるとどっちが良いとか正直良く分からないね!
← i2i前 Nijiポン出し 完成品→ https://t.co/Nc4Yd0h5QR
i2iケモ化テスト。
課題:
・無理なi2iした時によくあるフォーカスが甘くなる感じ。
・服がつられてフサフサになる。
・肉球ありそうな手にならない。
・furry は hair between eyes になりがちな傾向にひっぱられる
・人間耳が残る。
まぁ、肉球ハンドとニンゲン耳は加筆してからやれって話か。 https://t.co/0FmsJyGxAK
白状すると、今まで🌈はだいたいSDでi2iする前提だったから、🌈単体で完成品質に仕上げる努力を怠ってきました😇
なんか顔とか眼が微妙なことが多い…
(解像度が原因な気もするけど)
🌈のクオリティ上げるおすすめプロンプトとか設定とか教えてくれる人いないかなー(チラッチラッ)
#nijijourney
この落書きからi2iで生成した。
指定としては画風+1girl,large breasts,sittingぐらい。
コツさえつかめばサクサク作れるだろうけど、指定のキャラを狙って作れるか?という感じではある。
生成後のラフを素材にしてさらにi2iを掛けていく感じが実作業になるかな。
AI漫画は下絵づくりが肝心です。理想の下絵を出力する手段は自分は今のところ2種類ありまして、
①、②は自分で描いた雑イラストをSDXLでi2i変換でディティールアップする
③、④のような若干小物が多くてめんどくさいやつはChatGPTの画像生成機能を使います
@Yaki_Nama_Shake 1024x1024の同じプロンプト
まあやや崩れがちで、そこは普通にやるときと変わらなそうなので、512x512で出してi2iするほうが良さそう
1 NAI産の元絵
2 ebara
3 animagine
4 animagine
i2i時にleather armor等を指定すると反映してくれるのは嬉しい
(背景がほんわか過ぎるのでペイントで黒く塗りつぶして再びi2iするなど
#AIイラスト部 #AIart #AIArtCommuity #AI生成
Copilotで左の画像出してもろて、Stablediffusionのi2iで右の画像でた。
超かっこええやん。
forge でうちの環境で 1枚目に i2i + CN-tile が2枚目みたいに謎のボケたメッシュが入るの、どうやら tile_colorfix か tile_colorfix+sharpの時らしい。Ending Control Step が小さいほど顕著(0.25くらい)。しかしcolorfixしないとどんどん色褪せたりするし、はて、どうしたものか…