//=time() ?>
sd1.5とsd2.0のdreamboothを比較する
教師データ16枚
1枚目: sd1.5, 1k step
2枚目: sd1.5, 4k step
3枚目: sd2.0, 1k step
4枚目: sd2.0, 4k step
以下考察
sd2.0 dreambooth
4k step, 16枚
全く同じ設定で、sd1.5でもう一回やってみる。
結果が変わらなかったら恥ずかしいことになる。
@ke_mi__san 1枚目が"hatsune miku"で、2枚目が"zwx"で、3枚目が"blonde hair girl, in the style of zwx"で4枚目が"blonde hair girl"です。
ここからどういう考察ができますかね...?
SD2.0で適当にdreamboothしてみました。素晴らしい吸収力です。
私はもう手のひらを裏返しました。バニラSD単体での精度など誰が気に掛けるというのでしょうか。ベースモデルは追加学習に対する柔軟性で評価されるべきです。
num instance: 30
instance prompt: zwx girl
class prompt: girl
セーラ服ミクのShivam式DreamBooth
設定全部デフォルトで、800ステップの学習にしては案外悪くない
が、576x1024出力は壊れている
これがi2iアニメの安定化につながるか試してみる
waifuに描かせた立ち絵をpifuhdで3Dモデル化するテスト
元画像のアナトミーが壊れてるのは百も承知だけど、もうちょっと顔周りとか頑張ってほしかった
これにテクスチャ貼ってリグ入れる...?
Conditioning Mask Strengthの実験中
値によって割と傾向が変わってくるので、0,1だけではなく中間の値を模索するのが重要そう
あと、inpaint modelはあんまりアニメを知らなさそう
一枚目がオリジナル
指先まで追えてるのが強い
#stablediffusion