//=time() ?>
10000x4[step]経過後。良いの選んでこんな感じなのでちょっと物足りない。学習手法見直すかなぁ・・・。
見れるレベルのものを選んでいるが、手とか腕が結構崩れているのが多い。同様のプロンプトで"stable-diffusion-2-base"で生成すると↓こんな感じだから学習はできているのだけれど。
"stabilityai/stable-diffusion-2-base"だとなんとなく学習はできているっぽい。添付はバッチサイズ2で10000x3[step]経過後。