//=time() ?>
[model_IMASCG_2022-12-24-07-15_001_768x768]
とりあえず2000x2step。打率低い&手がめっちゃ苦手。なかなか難しいね・・・。
[wd-1-3-5_model_IMASCG_2022-12-10-23-39_011_768x768]
キャラ再現打率がめっちゃ下がってる。
↓キャラ再現できてないやつ・・・。
[model_IMASCG_2022-12-10-23-39_011_768x768]
strength=0.95とかだと背景そのまんまのこともあるな・・・・。その分色を残してくれる感じもあるけど・・・。
[model_IMASCG_2022-12-10-23-39_011_768x768]
プロンプト考えるの面倒くさいのでそれ以外でできる遊びを考える。とりあえず単色画像をimg2img。普通にtxt2imgするのとは違ってちょっと面白い。
[model_IMASCG_2022-12-10-23-39_011_768x768]
high resとかimg2imgなしでこれが生成できるのはすごいのだけれど上からの視点になりがちだな・・・。まぁ追加学習データが上半身ばっかりなのでしょうがない。
[model_IMASCG_2022-12-10-23-39_011_768x768]
ただの768x768解像度のWaifu-Diffusionとしても使える?
キャラ名と一緒にプロンプトにいれるとこんな感じ。なかなかいい感じだ。TIでいいとかは言わない。
[model_IMASCG_2022-12-10-10-54_002_768x768]
(一応キャラは千枝、みりあ、奈緒、志希)
さらに2000step学習させたけど、まだ微妙なキャラもいるし一晩回しちゃうか・・・。
[model_IMASCG_2022-12-10-10-54_002_768x768]
南条君の場合(これは良い例だけど別の画像だと全然だめだめだったりもする)。
大石泉、南条光は髪色全然学習してくれない組・・・。
[model_IMASCG_2022-12-10-09-29_001_768x768]
https://t.co/BKio1VG2tm
リンク先の画像からDeepDanbooruでタグ作成してキャラ名追加して生成するとこんな感じ(もちろん?リンク先画像自体も学習データとして使用済み)。過学習はしていない感じ。
[model_IMASCG_2022-12-10-09-29_001_768x768]
https://t.co/rNCdIDN8pG