白状すると、今まで🌈はだいたいSDでi2iする前提だったから、🌈単体で完成品質に仕上げる努力を怠ってきました😇

なんか顔とか眼が微妙なことが多い…
(解像度が原因な気もするけど)

🌈のクオリティ上げるおすすめプロンプトとか設定とか教えてくれる人いないかなー(チラッチラッ)

12 52

②雑i2i
雑な下絵をそれなりに整える。これもあった方が便利な気がする

0 4

良いぞ……
(ハープのみNAIでi2i。素出しもそこそこ良い感じだが物を持つ系はやはりNAIが圧倒的に上手い

3 16

追記してからさらにi2i。
かなり情報量が増えたが、意図には近いかな。
キャラクターをいい感じに固定できれば、かなり意図を考慮した作画が出来る。

0 3

i2iしたら左出てきた
ツーサイドアップとかのプロンプト効かない

品質高いっぽいけど、言うこと聞かなさも強い

0 2

この落書きからi2iで生成した。
指定としては画風+1girl,large breasts,sittingぐらい。
コツさえつかめばサクサク作れるだろうけど、指定のキャラを狙って作れるか?という感じではある。
生成後のラフを素材にしてさらにi2iを掛けていく感じが実作業になるかな。

0 13

i2iで欲しい要素入れたイイ感じになった
元→要素追加

0 6

AI漫画は下絵づくりが肝心です。理想の下絵を出力する手段は自分は今のところ2種類ありまして、
①、②は自分で描いた雑イラストをSDXLでi2i変換でディティールアップする
③、④のような若干小物が多くてめんどくさいやつはChatGPTの画像生成機能を使います

41 107

1024x1024の同じプロンプト
まあやや崩れがちで、そこは普通にやるときと変わらなそうなので、512x512で出してi2iするほうが良さそう

0 1

i2iでも意地でも刀を持ってくれないStablediffusionさん

0 0

とりにくさん( )のリアタイi2iアプリを細部の書き込みの参考に使ってるんですが、反映部分が小さいのでイラスト全体を読み込むと細部が潰れて1枚め、キャラだけ拡大すると2枚めになるんですよ、読み込み範囲拡大を死ぬほど待ってるんだ……

2 6

1 NAI産の元絵
2 ebara
3 animagine
4 animagine
i2i時にleather armor等を指定すると反映してくれるのは嬉しい
(背景がほんわか過ぎるのでペイントで黒く塗りつぶして再びi2iするなど

2 5

この感じ良いぞ……



(ダリくん→NAIくんのトランスファー→animagineでi2i
i2iはebaraよりもanimegineが素直になる印象。NPのunaestheticXL_Alb2とzPDXL-negもi2i時は外した方が良い感じ

3 27

 

Copilotで左の画像出してもろて、Stablediffusionのi2iで右の画像でた。
超かっこええやん。

0 0

forge でうちの環境で 1枚目に i2i + CN-tile が2枚目みたいに謎のボケたメッシュが入るの、どうやら tile_colorfix か tile_colorfix+sharpの時らしい。Ending Control Step が小さいほど顕著(0.25くらい)。しかしcolorfixしないとどんどん色褪せたりするし、はて、どうしたものか…

0 7

見てみてとりにくさんのリアタイi2iにイラスト突っ込んだ結果!! おもちゃ!!!!

0 4

新米指揮官な感じ良いぞ……
(NAIくんのトランスファー→ebara ponyでi2i
ADetailerで顔と手を修正

3 18

(版権モノです スの次/席
NAIくん→ebara ponyでi2i
度々ベルトが生成されるので制服の時はNPにbuckleを入れると安定する

2 12

最近作ったSD1.5モデルが剣持つの下手くそすぎて困ってたけど、ComfyUIでanimagine3.1をSD1.5で自動i2iするワークフロー作って解決!
やっぱり剣持つのはXLが上手だし(animagineならカッコイイ構図もそこそこ出るし)、画風は1.5が好きだし、両立できるのはめちゃくちゃ良い!

16 109