//=time() ?>
cloneはi2iでの動作を想定していますが、t2iのCNで動作させた場合、形状を維持しながら様々ないい感じの色合いにランダムで変化させる、という挙動をします。
xl controlnet clone (元画像を維持しつつ拡大できるSDXLのCN 制作途中)
1枚目 入力画像
2枚目 通常i2iで2倍出力(denoise1)
3枚目 同パラメータでcloneで2倍出力(denoise1)
4枚目 原寸との描画比較
xl controlnet clone (元画像を維持しつつ拡大できるSDXLのCN 制作途中)
1枚目 入力画像
2枚目 通常i2iで2倍出力(denoise0.75)
3枚目 同パラメータでcloneで2倍出力(denoise0.75)
4枚目 顔の描画比較
comfyUIでノイズ法 https://t.co/fneuq0qNRF
のi2iを試したけどさすがにcomfyUIでノイズ法は無理かなと思ってたらまあまあ可愛い絵が出てきて満足はしている
コル音イムかわいい コル音イム無限にかわいい
LoRAとcontrolnetによる書き込み量増やしi2iのワークフロー
comfyUI初めて三日目でここまで出来たの凄くないですか???(クソポジティブととと)
最近のイラストづくり、i2iや加筆修正を繰り返して「過多になりがちな情報量を適度に落とし整えつつ、描くオブジェクトの説得力を上げる」みたいな方向性でやってるんだけども、こう並べてみるとどっちが良いとか正直良く分からないね!
← i2i前 Nijiポン出し 完成品→ https://t.co/Nc4Yd0h5QR
i2iケモ化テスト。
課題:
・無理なi2iした時によくあるフォーカスが甘くなる感じ。
・服がつられてフサフサになる。
・肉球ありそうな手にならない。
・furry は hair between eyes になりがちな傾向にひっぱられる
・人間耳が残る。
まぁ、肉球ハンドとニンゲン耳は加筆してからやれって話か。 https://t.co/0FmsJyGxAK
白状すると、今まで🌈はだいたいSDでi2iする前提だったから、🌈単体で完成品質に仕上げる努力を怠ってきました😇
なんか顔とか眼が微妙なことが多い…
(解像度が原因な気もするけど)
🌈のクオリティ上げるおすすめプロンプトとか設定とか教えてくれる人いないかなー(チラッチラッ)
#nijijourney
この落書きからi2iで生成した。
指定としては画風+1girl,large breasts,sittingぐらい。
コツさえつかめばサクサク作れるだろうけど、指定のキャラを狙って作れるか?という感じではある。
生成後のラフを素材にしてさらにi2iを掛けていく感じが実作業になるかな。