//=time() ?>
過学習しなければGlazeの波模様は出現しないので、軽めの学習ならそんなに気にならないかも
glazeがglazeかけたもの、noglazeはなにもかけてないもの https://t.co/P4dUMqCTiK
#stablediffusion
学習のベースモデルは SD1.5、適用は SD1.5か Protogen Infinity。自分の学習設定は、ぶっちゃけ過学習で行儀の良いもんじゃあないとは思う。でも、左の生生成を右の適用生成にしてしまうのが欲しい結果なので、この設定で概ね満足
https://t.co/fTTu2dvRk9
net_dim=110、alpha=55、train_resolution=400、Step2000で再学習。
ここまでやると、ほぼ完ぺきだけどVRoid感まで学んでしまう…。
これが、過学習か。
あと、髪の青い毛みたいな特徴は出ない。
[wd-1-5-beta2](+LoRA)
学習元44枚。キャプションはDD。バッチサイズ=2。repaeats=10。unet_lr=1e-6。text_encoder_lr=5e-8。20epoch。
まぁこんなもんかな。学習足りない感じあるけど、過学習するよりはまし?学習率難しいな。
#AIイラスト #AIart #AIイラスト好きさんと繋がりたい #AIArtCommunity #AIgenerated #アズールレーン
過学習でしょうか...
BPModel(bp_mk5)
確かNAIデータを使わず云々という話を聞いた気がするこのシリーズ。もっと進化したら、過学習気味な他のデータをだしぬけそうとも思う。
#huggingface_モデルデータ検証
最初の学習は、なぜか絵柄急変しちゃって、好みではなくなってしまいました
次は顔の学習に重点を置いたのですが、なんか全体がボヤボヤになって失敗
それ解消したら、次は完全に過学習で、目とかサイコっぽくなって失敗
柚は苦労させてくれる・・・
学習はいつもうまくいくもんじゃないよっていう例