//=time() ?>
漢字1文字(3トークン)にしたら再現率上がった気がする。もしかしてtextual inversionみたいに学習させるトークン数多くした方が覚えさせる情報量多くなるのか?気のせいか?平仮名/カタカナ/漢字フルネームで試してみる価値アリか。
dreambooth学習途中のサンプル画像。教師画像11枚の500epoch、5500stepのサンプルだけど、promptがシンプルだからこその再現度かな。もしくは学習画像と同じ大きさの768x768で出力しているからか。promptを色々盛って使いたい場合にはこれの倍位回さないとダメな気がする。 本当のところは知らんけど。
学習率変えて再度学習してもらったら、元の画風をある程度残しつつキャラクターの再現が出来るようになったっぽい?細かいところ(特に毛先の色変わってクルクルしてるところ)はまだダメだけどそこはまぁ仕方ないかな。むしろ、ここまで特徴とらえているのは素直にすごいんじゃなかろうか。
かなり近く出せるものとなったんじゃないか?着せ替えさせるくらいなら出来るAIくんに成長してくれたかも。細かい指示入れ出すと破綻するけど。
うーん、超迷子。やればやるだけおかしくなってくる。なぜだ。。。 外観似せようとすると背景とかポーズが融通聞かなくなるし、そうでないと複雑な髪型出ないし。最初にピックアップするキャラクター間違えたな。。。
5500step回したけどまだまだ。頭のリボンは学習したっぽいけど。学習率高くすれば良いのか、step数増やせばよいのか。一旦学習率0.0005で開始してみて、過学習気味なら学習率戻してstep数増やすようにしよう。
1回目失敗。学習率低すぎたか(0.0001+Scale learning rate+warmup 2200step)。けど特徴はうっすら出ている?
あと2つのconceptを同時に学習させるとき、instance promptに同じtoken入っていると学習結果混ざるのか? デジたん出そうとしてもみあげ(と呼ぶのが正しいのか)が内巻きになるのは同時学習させたライスシャワーの影響か? キャラクター学習はやっぱり独立してやらないとだめだな。
うーん、AI画像生成も難しい。似ているような似ていないような。。。 そもそもぱっと見はそれなりに良さげな画像は出てくるけど、細かいところ見るとやっぱりちゃんと描けてないことが多い。
SD1ベースでの768サイズのDreamBoothで結構いい感じに出来そうな感触。txt2img一発だけでそれなりのものが出るようになった。seedガチャは必要だけど。 好きなキャラだからといっていきなりデジたんでするのは無謀だったか。髪型複雑で再現が難しい。頭のリボンでそれっぽく見えはするが。