//=time() ?>
ちなみにこれが20epoch 4batch 3300step
batchが並列処理する数らしいので2batch8800stepも4batch3300stepも総step数としては大差無いはず
なのでここまで変わるのはやっぱりadafactorのおかげな気がする
学習画像34枚 20epoch 2batch 8800step
同条件で4batchにして3300stepくらいになったときよりも明らかに再現度が高くなった
batch数を減らしてstep数が多くなった結果adafactor最適化の時間を稼げたと推測
次は同条件で1batchにしてさらにstep数を多くなるようにして学習させてみる
epoch数を223*3/学習画像枚数にするといいというのを見つけて23epochでさっきのやつを再学習した結果
なかなかいいんじゃないでしょうか!