//=time() ?>
768x768,2000[step]追加学習後。
今まで微妙だったキャラもかなり改善してる。単純に学習が進んだだけってのもあるだろうけど、解像度の効果もかなり大きそう?
768x768,2000[step]追加学習後。さらに2000step学習したモデルがあるのだが、S3からのダウンロードが遅い・・・。自宅がクソ回線すぎる・・・(なんならダウンロード待ってるうちにさらに2000stepの学習が終わりそう)。
768x768,2000[step]追加学習後。
もりくぼはもうちょっと頑張ってほしい・・・(もりくぼに関してはTwitterに載せるレベルじゃないけど載せちゃった)。
768x768,2000[step]追加学習後。顔がだぶらないわけではないがかなり確率は低い(10%以下)。クオリティ的な打率(Twitterに乗せているレベルのもの)も15%くらいはあるかな?
768x768,2000[step]追加学習後。text_encoderは相変わらず学習している(そろそろ止めてもよい?)。学習元はCLIPの最終層から2番目使っているんだけど今回の学習では普通に最終層を使ってしまった・・・(設定ミス)。生成も普通に最終層。
768x768,2000[step]追加学習後。普通によくなっている・・・。やっぱりファインチューニングの時は小さい画像である程度スタイル学習⇒高解像度画像で高解像度の構図を学習、みたいなのが結構有効なんかな?真面目にやるならSDみたいに256x256から始めるのと学習効率もっといいんだろうな。
8528diffusion のv0.2を作る過程で、別モデル学習の検証。WDへの学習データには自分が描いた絵(二次創作含む)を利用。#8528d より学習データ枚数が足りないのでめちゃくちゃ傾向が偏るのと制御難易度跳ね上がり。 "自分の絵で簡易追加学習する"ならdreamboothの方がいいかもな……
自分が出力したAI画像をさらに学習させたモデルを作った話
4枚の画像は追加学習後のWDの出力物。
SD、WD AIモデルの追加学習 よもやま話1(ckptテスト用colabあり)|852話 @8co28 #note https://t.co/OUa1EG1GPM
追加学習で二次元背景特化モデル(学習データはt2i生成物)を作り、検証(1,2枚目)
従来のWDよりもアニメ背景感でる。
朝に作ったAI出力を学習させたモデルに上記背景データを更に追加学習(3.4枚目)
いい感じに混ざってくれる(ただしプロンプト制御が難しい)
WaifuDiffusionに追加学習させた8528_1130.ckptモデルの同seed対比。背景は若干弱いけど全体的な画面の構成はいい感じに出力されるよう調整された。
学習に使ったのはAI出力(t2iか、t2iのi2i)画像1500枚くらい。
WDモデルへの追加学習にこちらのcolabを使用させていただきました。現状VRAM的にcolabのpro以上だと使えるようです。 https://t.co/lHYgmeaEYa
#WaifuDiffusion に #Nijijourney で生成した画像を数百枚追加学習した画像。今まで作ったAI画像を全部学習させて自分だけのモデル作る計画している。
SD2.0で適当にdreamboothしてみました。素晴らしい吸収力です。
私はもう手のひらを裏返しました。バニラSD単体での精度など誰が気に掛けるというのでしょうか。ベースモデルは追加学習に対する柔軟性で評価されるべきです。
num instance: 30
instance prompt: zwx girl
class prompt: girl