//=time() ?>
二人の帰り道 #AIArt #Dreambooth 一部加筆
自前のHypernetwork、一応学習できたけど効果がいまひとつだな。短いプロンプトだと特徴を濃縮したような絵になって、長いプロンプトだとスタイルが弱くなってしまう。 なんか実装をミスってるかな……(;・∀・)
1,000step目、なんか絵らしきものが生成され始めたのを確認して寝ます。
昨日のスタイル+キャラクタしたモデルに、さらにDreamboothで某衣装を学習させてみた。かなり過学習気味になりキャラを忘れてしまったけど、まあまあ実現可能そうではある(・∀・) 教師データ18枚、正則化画像同じで1e-7でbs4 3000step学習(これより前のckptは残ってなかった……)。
スタイルは教師画像213枚、正則化画像約1100枚、学習率1e-6、バッチサイズ4で4000step学習、その後キャラクタは15枚、正則化画像同じ、学習率2e-7、バッチサイズ4で4000step学習。 単純なpromptだとすごく過学習?気味だけど、むしろその方が?長いpromptにするといい感じになる。
某アニメの画風を学習させたモデルに某ゲームのキャラクタをさらに追加で学習してみた。特徴も雰囲気も出てるしいい感じだ!(∩´∀`)∩ なによりカワイイ #Dreambooth #AIArt
城斉高校文学部所属、一年B組・島崎桃子ちゃんと、部長で三年A組・泉遥華ちゃんです( ・ᴗ・) #AIArt #Dreambooth (自作小説のキャラクタです)
Autoencoderのfine tuning後のU-Netのfine tuning、25k step(batch size 4)でいったん終わりにした。U-Net単体のfine tuningに比べると、少しだけど解像感が上がってる。ただ新しいWDがAEも学習してるならわざわざいらないかな……。 添付は目と髪の部分のcrop、AE+UN、UNのみ、AE+UN、UNのみの順です
こんなやり方でいいのかわからないけど、Waifu DiffusionのU-Netをfine tuningしたモデルを、そのまま続けて同じ学習データでAutoencoderのみ学習したもの。元のモデル、Autoencoder fine tuning後、元拡大、後拡大。微妙に細部が改善されたような……。 データ1400枚、lr 1.0e-6、7000step、5 epoch位
秋のダイヤさん #AIArt #Dreambooth on Stable Diffusion ほくろのみ加筆