//=time() ?>
@AoyanagiOchacha DreamBoothで作ったモデルで2048で作れているんでしょうか?
私の方は前にお教えしたFastDreamBoothを使うと、大きくするとこんな感じの変な画像になってしまいます‥
#dreambooth trained #ACertainty merged to #7th_anime V3_A (50+50) and V3_C (50+50)
WD1.4-anime-e1+dreambooth
t2i->upscale
#AIart #StableDiffusion #WaifuDiffusion #Dreambooth
過学習は無視して、現状は #platdiffusion に学習して他のをマージするのが自分には向いていそう(左1.21、右1.22)。 #shirayukianime #dreambooth
reference sheet や tachi-e などで作ったキャラを i2i で増幅して DreamBooth に読み込ませて階層マージで色問題を完全させるというワークフローで作ったオリジナルキャラファインチューニングモデルです
衣装の再現度は完璧じゃないんですが、打率が上がりましたし加筆コストも下がりました
1: 色改善前
2: 色改善後
学習したキャラじゃないやつもちょっと出てきてしまいましたが、DreamBoothで学習したキャラの打率がすごく高くなったので実用的になりました
これで色んなシーンに同じ格好の同じ子を登場させられるようになったかもしれません
左 #acertainty に #dreambooth で学習したモデル(先ほどと同様)
右 #shirayukianime をマージしたモデル
#東北きりたん