//=time() ?>
#anythingv4 が出たのでお試し出力したけど普通に強い。出回ってるマージモデルよりだいぶ素直にプロンプト受け付けてくれる感もある。優秀!
#AIart #AIイラスト
マージされないと言いつつ、あたいのスネにはこの辺りにアランスネ味がある。
並べてみるとみんな目元の描き方同じじゃねぇか!と思ったけど同じ人だから別に良かった。
小さめの画像版
1 AnyV3のみ
2 AnyV3+EvtV3のマージ
3 AnyV3+リアル系マージ
3 (AnyV3+EvtV3マージ)+リアル系マージ
EvtV3混ざったのは陰影ぱっきりして顔がシュッとする気がする
1 AnyV3のみ
2 AnyV3+EvtV3のマージ
3 AnyV3+リアル系マージ
3 (AnyV3+EvtV3マージ)+リアル系マージ
あんま変わらないけどEvtV3が入ってる方がちょっとシュッとする感じかな
#AIイラスト #AIアート #AIart #stablediffusion
reference sheet や tachi-e などで作ったキャラを i2i で増幅して DreamBooth に読み込ませて階層マージで色問題を完全させるというワークフローで作ったオリジナルキャラファインチューニングモデルです
衣装の再現度は完璧じゃないんですが、打率が上がりましたし加筆コストも下がりました
昨日間違えてアップしてすぐ消した画像は、 #acertainty に学習して #shirayukianime をマージしたモデルでした(記事で使ったやつ)。学習したキャラは出てきませんが、少しだけ貼り直します。
almond を gape と特殊なマージをしたら色の問題が改善されました
絵柄も変わらないですね(微妙に結果は変わる)
AIに女の子2人のイラストを描いてもらった
txt2img
Model: ACertainThing.ckpt + Elysium_Anime_V3.safetensors の階層マージモデル
#StableDiffusion
@iTaBEVFv9UhNDLn その鮮やかさで気がするレベルだとそんなに問題ないのではないですか?自分の環境だとだいぶ色が薄くて、例えばこれはAlmond mixをVAEナシで出力。VAEは使っても変わらず。こんな感じでした。
まだ試してないんですが、仕事が終わったらこの辺のモデルでマージしたら色が改善されないか検証予定です。