//=time() ?>
まだ学習回してるけど、今日の成果は悪くない気はする。
画像の分類をごそっと変えてやり直してみた。
ただなんかロリ率上がったな。言うほどロリキャラ生成してないと思うけど、なんで?w
過去の自分でも自分は自分っていう事なのかなあ。今の絵柄に取り込むつもりがない過去作3DCGもLoRAの訓練データにぶっこんだらなんか絵柄の好み度が上がった。昨日の学習データより髪の描き方が好み。 #stablediffusion
そして追加学習つきのモデルにSDタグつけていいのかはいまだ迷いつつ。
アップスケーラは一旦後回しでいいやってなったので、LoRA学習を試してみた。今まで生成したAI絵で訓練してみたLoRAだけど、うーん。パラメータとか練り込めてないどころか動作確認レベルだし、枚数も大した数ないからアレだけど、鼻の描き方とかは私好みに近い…か…?
実験レベルなのでそこまでこだわった品ではないけど、t2iで小さい元絵作ってi2iで拡大してやれば、意外とアップスケーラなしでもイケるんじゃね?っていう気もしてくる。
RTX3060ごときで968x968が生成できるのは心地よいかも。個人的にはこのサイズが好みなので。
#stablediffusion
おお…なんかDiffusersのリリースノート見てて気になったのを試してたら、うちの12GBしかないVRAMでまさかの1980x1080サイズが生成できた…。
まあ512x512用モデル使ったので絵の完成度はお察しだけど、ある程度タイルパターンで済むような絵になら使えるか…? #stablediffusion