//=time() ?>
all i ask is a p5 kakania, bluepoch
#Reverse1999 #リバース1999
(続き)上記の条件で学習したCNを使って、小さくしたイラストをi2iするとぼやけていた画像がくっきりする
ひとまず3万epochだけどまぁまぁうまくいったな・・・(色合い変わるのがヤだ
もうちょい学習してみるか
お、自作のCanny2Normalmap_lllite(epoch)を0-0.5の間だけ掛けた方が、良い結果になるな・・・!
1枚目:llliteなし
2枚目:lllite0-0.5適用
3枚目:lllite0-1.0適用
全て月須和さんのノーマルマップLoRA前提です
ControlNet用のデータセットを改善したら露骨に結果がよくなったな
1枚目:Line2Normalmap(データセット改修前)5000epoch
2枚目:Canny2Normalmap(データセット改修後)5000epoch
目視によるデータセットチェックって大事かも(cannyにしたのが影響大きいかもだけど
うおおおお!!!!
pix2pix(50epoch)微妙だった!!!!!
生成AI(ControlNet)の方が多分良い!!!!!
試してみないとわかんないものだな・・・!!!
4枚目の10枚のスチルを15repeat40epochで学習回してLoRAを作り、1~3枚目がpromptトリガーワードだけで出る。
「可哀くて倔くて最凶の彼女」のヒロイン
Había olvidado enumerar las viñetas anteriores @Pochiko__1224 #ArtePochiko
1枚目:sai_xl_canny_256lora
2枚目:controllllite_v01032064e_sdxl_canny
3枚目:controllllite_v01032064e_sdxl_canny_anime
4枚目:diffusiondb_2m_first_5k_cannyで28epoch
元のcannyと重ねて比較
1枚目から順番に
LoRAなし
カラー40、線画40
カラー100、線画100
カラー40、線画280
ううううーん、もしかしてコピー機LoRAのepoch数は一致していた方がいい?
いや、カラーも280回すの正直きついんだが・・・
できた。ので使ってみる。
1枚目:LoRAあり
2枚目:LoRAなし
全然違うやんけ!!!!!!(ズコーーーー
え、もしかしてカラーの方も280epoch回さんとアカンとかないよな・・・?
線画を覚えるのには280epochかかって、カラー画像覚えるには40epochで済んだんだけど
1枚目:カラー元画像
2枚目:コピー機LoRAカラー(40epoch)
3枚目:線画元画像
4枚目:コピー機LoRA線画(280epoch)
これらをそれぞれ、差分マージすればよいのかな