//=time() ?>
dynamic-thresholding latents in pixel space.
at sigmas≥1.1: we decode to pixel space, do Imagen-style thresholding, encode to latents.
trained a tiny latent decoder + RGB encoder on VAE outputs (you could call this distillation).
left = CFG 30, usual
right = dynthreshed
春は出会いと別れの季節ですね。
新天地に旅立つ方々にエールを送りたいと思います。
なんかTiled Diffusion複数回かけるとだんたんVAE指定し忘れた時みたいに色が薄くなっていく気がします。。
#AIイラスト #AIart
#AIイラスト好きさんと繋がりたい
#ちちぷい #AIピクターズ にも投稿しました。
ソシャゲイラスト風
Model: AOM3_orangemixs
VAE: orangemix
LORA: gachaSplashLORA_gachaSplash31
#stablediffusion
競泳水着姿(笑顔はない)。
若干妥協あり。今日はAIのご機嫌が悪い。VAEは関係あるのかなぁ?
残りCU 108.54
#AbyssOrangeMix3 (AOM3A1B) #stablediffusion #aiart #aiイラスト
で、これ本当はるな( @Luna11054 )さんのツイートの「strong light coming in」と「light sparkles(弱めに)」を入れると~っていうテストのブツだったんですが…要調整というところですね(苦笑
なお、VAE切って生成してアップスケールしたものをLuminarAIという写真加工ソフトで明るくしてます
折角なんで比較できるように画像置いときます
使用モデル : 8M0
1枚目 : https://t.co/8AqEkYYbH9使用
2枚目 : VAE不使用
こうしてサムネ表示でみるだけでも瞳が全然違って見えるね…
cherry brossomとか打ってると謎のサクランボのゴリ押しにあうのは仕方ないよね…(苦笑
これがなければVAEだけ変えてはい採用って感じでもよかったんだけど…
なお、これでネガティブにcherryを入れた結果逃げられました(笑
呼び戻すのたいへんだったです…(まだ解決してませんが…)
目下の悩みは学習時点では前髪ぱっつんも獲得できているのにアニメ系モデルで出力するとぱっつんじゃなくなってしまうこと、出力時縦横どっちか512じゃないとまともに出力できないこと、VAE次第でせっかく学習したいばら髪が弱まってショートヘアに近づいてしまうこと
#AIArtwork
#StableDiffusion