//=time() ?>
WD1.5で元絵を出力⇒Replicantで中間処理&加筆誘導、Inpaint等いろいろ駆使して出力 #WaifuDiffusion #AIイラスト
独自ノイズ画像 x Replicantによるi2i⇒仕上げWD1.5。半ば諦めモードだった独自ノイズ画像方式も、まだ道はある様です #WaifuDiffusion #AIイラスト
こちらは従来の自作ノイズ画像i2iベース。ここから更に服と背景のクオリティUPは正直難しい。元々自作ノイズ画像に走った理由は線画出力の安定性向上も大きかったのですが、それも今となっては… #WaifuDiffusion #AIイラスト
ControlNetを用いてのt2i出力⇒加筆誘導テスト。領域拡張した部分(上と右)、空は境界をぼかしてますが木の部分はそのままにしています(ぼかすと木と空の境目が全体でぼけ始めたので) #WaifuDiffusion #AIイラスト
WD1.5をt2iベースでお試し。やはり背景含め綺麗に出ますね。独自ノイズ画像ベースの手法はいよいよ凍結も視野に入れるべき…かもしれません。 #WaifuDiffusion #AIイラスト
従来のi2i用ノイズ画像(1枚目)と数日前から試している新しいノイズ画像(2枚目)をSeed、Prompt揃えて仕上げ無しで比較。3枚目は同様のPrompt内容でt2i。 #WaifuDiffusion #AIイラスト
そもそもNegativeに"grayscale"を追加していた理由は、色が単調な独自ノイズ画像ベースのアウトプットに"色"を増やす事が目的だった訳ですが、今となっては(少なくともD1.5において)不要なノウハウだった可能性が高そうです #WaifuDiffusion #AIイラスト