//=time() ?>
白状すると、今まで🌈はだいたいSDでi2iする前提だったから、🌈単体で完成品質に仕上げる努力を怠ってきました😇
なんか顔とか眼が微妙なことが多い…
(解像度が原因な気もするけど)
🌈のクオリティ上げるおすすめプロンプトとか設定とか教えてくれる人いないかなー(チラッチラッ)
#nijijourney
この落書きからi2iで生成した。
指定としては画風+1girl,large breasts,sittingぐらい。
コツさえつかめばサクサク作れるだろうけど、指定のキャラを狙って作れるか?という感じではある。
生成後のラフを素材にしてさらにi2iを掛けていく感じが実作業になるかな。
AI漫画は下絵づくりが肝心です。理想の下絵を出力する手段は自分は今のところ2種類ありまして、
①、②は自分で描いた雑イラストをSDXLでi2i変換でディティールアップする
③、④のような若干小物が多くてめんどくさいやつはChatGPTの画像生成機能を使います
@Yaki_Nama_Shake 1024x1024の同じプロンプト
まあやや崩れがちで、そこは普通にやるときと変わらなそうなので、512x512で出してi2iするほうが良さそう
とりにくさん(@tori29umai )のリアタイi2iアプリを細部の書き込みの参考に使ってるんですが、反映部分が小さいのでイラスト全体を読み込むと細部が潰れて1枚め、キャラだけ拡大すると2枚めになるんですよ、読み込み範囲拡大を死ぬほど待ってるんだ……
1 NAI産の元絵
2 ebara
3 animagine
4 animagine
i2i時にleather armor等を指定すると反映してくれるのは嬉しい
(背景がほんわか過ぎるのでペイントで黒く塗りつぶして再びi2iするなど
#AIイラスト部 #AIart #AIArtCommuity #AI生成
Copilotで左の画像出してもろて、Stablediffusionのi2iで右の画像でた。
超かっこええやん。
forge でうちの環境で 1枚目に i2i + CN-tile が2枚目みたいに謎のボケたメッシュが入るの、どうやら tile_colorfix か tile_colorfix+sharpの時らしい。Ending Control Step が小さいほど顕著(0.25くらい)。しかしcolorfixしないとどんどん色褪せたりするし、はて、どうしたものか…
最近作ったSD1.5モデルが剣持つの下手くそすぎて困ってたけど、ComfyUIでanimagine3.1をSD1.5で自動i2iするワークフロー作って解決!
やっぱり剣持つのはXLが上手だし(animagineならカッコイイ構図もそこそこ出るし)、画風は1.5が好きだし、両立できるのはめちゃくちゃ良い!