//=time() ?>
改めてファインチューンでMitsua diffusion CC0で生成した3キャラ顔、それぞれ12枚をクラスvroidに追加学習してみたが、まだディテールが荒いなあ。トランプのイラストっぽい。特に、顔の描き方がわかってない感じが辛い #mitsuadcc0
あと、WD的には"holding branch"を分かち書きせず入れることで、枝を持たせることはできます(1枚めが入れたもの、2枚目が入れないもの)。ただこうやっていちいちDanbooru見なきゃいけないのはちょっとネックではあります
WDはno humansを入れてあげると人間が出なくなる率が高まります(1枚目、同じシードで+no humans、2枚目は入れてないやつ)。とはいえデミヒューマンっぽいのは出たりしますが /Cool Japan DiffusionをAUTOMATIC1111版Web UIで試してみた|IT navi @itnavi2022 #note https://t.co/hzz8FnV3I5
おお、Dreamboothの学習ステップ数を減らしたら絵が安定した。やっぱり過学習とか、学習しすぎるとまずいとか、そういうのなんだな。うーむ奥が深い #AIart
今回の学習過程では同時に4人の学習に挑戦してるが、その過程で気づいたこと。
目尻が下がった表情は指定が辛い。
これは評価の高い顔に近い画像の目尻が上がっているケースが多いからだと思う。taremeで指定できるが効きづらいし、best quality等を指定しないと確率が低まるので、我慢してガチャ回す
安定した制御が難しいが、masterpiece, best qualityを外したほうが好みの顔が出る場合もある。オリジナル創作を作りたい場合、極力、プロンプトに特定作品はいれないほうがいいかな、という気持ちはある(シード頼みになるし、元データにはあるから自己満足的なところはあるけど)