学習に使う枚数は同じでもEpoch数を増やすと、よい

0 2

P: 2023/03/16 AI rkgk <lora:test003-epoch-000010:1>
N:
S: 20230316

2 19

詩柚ちゃんRoLAが完成しました。
設定は自作の生成画像(768×768)29枚、20step、3epochです。時間はRTX A4000(ローカル環境)でおよそ30分程度。
左はLoRA無し、右がLoRAありです。
もともと打率は高いですが、服の色、髪の色、髪型がかなり安定しているのがわかると思います。

1 17

Hi everyone! I'm a gaming variety vtuber! I like and more! I love anime where the MC is too. Always taking and suggestions 💜

0 15

実は1ヶ月前にしれっとアプデしてて、

8000枚の絵で80000epoch学習したモデル(lora差分)を追加しています
WD4-teftef_LoRA_80000.pt をダウンロードし、kohyaさんのadditional networks で
baseを wd-1-4-anime_e1.ckpt にして使えます。

https://t.co/pZ8z72l2fj

2 12

4KOMAプール
新しくブロックを生成しました🎉
Blocks this epoch 1🧱
Total blocks 184🧱

委任者の皆様ありがとうございます😊

エポック399は1つのブロック割当に対し
・ブロック生成成功‥1ブロック
以上の結果となっております🙇‍♂️


⚠️4コマは投資を勧めるものではありません

4 26

20epoch。過学習モデルでもControlNetでポーズは変えられるので楽しい(指はあきらめ気味)。

0 0

[wd-1-5-beta2](+LoRA)
学習元44枚。キャプションはDD。バッチサイズ=2。repaeats=10。unet_lr=1e-6。text_encoder_lr=5e-8。20epoch。

まぁこんなもんかな。学習足りない感じあるけど、過学習するよりはまし?学習率難しいな。

0 0

10epoch。weight=0.75。この辺がちょうどいいかな?

0 0

そのまま20epochまでやった。普通に過学習になった・・・。

0 0

[wd-1-5-beta2](+LoRA)
kohyaさんのやつのデフォルト設定。学習元44枚。キャプションはDD。repaeats=10。5epoch。

0 0

うーん、やっぱLoRA学習のepoch数上げすぎだったか。がっつり小さくしたら狙いに近くなった。データセットの整理状況も最初の頃と違うっていうのはあるだろうけども。

0 1

80epoch x 4batch 320ステップで生成してみた。
めちゃくちゃクオリティ高くないか...?これがLoRAの力... https://t.co/Vd2gufSILN

4 22

なんかひたすらLoRA訓練の回数(epoch)増やしまくってたけど、試しに思いっきり減らしたら、がっつりそれっぽくなって「ンフッ」ってなってる。

0 0

Wow, Chrono Trigger is 28 years old! One of my all time favorite games. I got in the Epoch and grabbed some art I did some time ago

1 7

Day 10: Megacerops coloradensis
This huge Brontothere lived in North America during the Eocene epoch. Despite looking like a rhinoceros they were more closely related to modern horses!

22 86