さっき描いた絵を自分の絵でファインチューニングしたAIでi2iしてみる

目にかかってた髪ないなった・・・あと髪留め・・・
塗りが滑らかになるなぁ・・・




https://t.co/7RTgMWAhMA

1 0

のイラストで学習
Dataset:512×512 52枚(左右反転含む) 
step:40000 epooch:769
レイヤ構造:1,2,1 活性化関数:relu 学習率:0.000005 sampling:once
(他Automatic1111の初期設定)

1 2

のイラストで学習
Dataset:512×512 52枚(左右反転含む) 
step:25000 epooch:390 最終時損失:0.07付近
レイヤ構造:1,2,1 活性化関数:relu 学習率:0.0001 sampling:random
(他Automatic1111の初期設定)

3 5

←LoRAファインチューニング済み

だいぶ崩れなくなった

0 3

reference sheet や tachi-e などで作ったキャラを i2i で増幅して DreamBooth に読み込ませて階層マージで色問題を完全させるというワークフローで作ったオリジナルキャラファインチューニングモデルです
衣装の再現度は完璧じゃないんですが、打率が上がりましたし加筆コストも下がりました

7 40

WD1.3をファインチューニングしてWD1.4とマージした結果

(WD1.4:WD1.3 : 今回のやつ)

0 2

1枚目:ファインチューニングモデルで生成してコントラストをGIMPで直したバージョン
2枚目:1枚目を普段使ってるモデルでアップスケールしたバージョン
学習によって得られた衣装がほぼ維持されたままなので、これならいいかも知れません
クオリティは自分的合格ラインを超えてます

0 8

いつもの絵柄になりませんねえ
ファインチューニング後のモデルの絵柄で満足できないなら、成功とは言えません

2 32

打率上がってるんではないでしょうか
同じ子で服装もほぼ同じという目標は実現した?
後はこのファインチューニングモデルだと、いつものプロンプトが伝わりにくいので、独自のプロンプトのバランスを考えて仕上げていく必要があります

3 23

stable-diffusionをイラストデータセットでファインチューニングしたwaifu-diffusionのクオリティがエグい。

0 0

1枚目:学習したファインチューニングモデル
2枚目:学習前の汎用モデル(マージモデル)
(同じプロンプトです)
3枚目:学習に使ったAIイラスト

エルフが学習した人物と格好になる確率がとても高くなっています
学習に使った画像が4枚しかないので顔の向きが固定されてしまっています

3 18

ちゃんと猫も出力できたー
なかなか難しいな
猫でファインチューニングしたモデルをそのうち作ってみようかな

0 6

しゃがむエルフ(自分で作ったAIイラストを使ってファインチューニングしたキャラ)

おやすみなさい!

6 56


AUTOMATIC1111のembeddingでファインチューニングをした。1枚目と2枚目は自分の16枚の絵で学習し、step10万学習速度0.0005ベクトル数1、二枚目は"miku"のプロンプトを足した。3枚目は学習データをmimicの出した絵で71枚まで水増しし、学習速度を0.005ベクトル数5にしたもの

0 10

Waifu Diffusion 1.4 Anime Release Notes
https://t.co/yhvH8WAxh3
SDv2.1 Baseをベースにファインチューニングを行ったStable Diffusion v2モデル
オリジナルソースを提供する画像掲示板を通じてダウンロードされた546万8025点のテキスト画像
クオリティとレーティングのメタデータも追加された。

0 6

この件、うまく行った気がします
1枚目の子を6枚作ってファインチューニングして、2枚目みたいに同じ子(若干目と年齢感が違うけど)をポーズやシチュ指定して生成できるようになりました
精度は高いですね https://t.co/pZCw8taWoS

0 1

同じプロンプトでも、雰囲気は似てるけど別人だし各パーツがちょっとずつ違ってて同じ日の格好ではないな、みたいなのを改善したいので、たまたま同じ格好の出力を何個か引き当てたら、それを使ってファインチューニングして、同じ子を出せるようにしたいと考えています

3 35

https://t.co/CJqXAJoa7E

↑Colab で動かすStable Diffusion (Fintuning Model Ver 1.0)

個人がファインチューニングしたその方々独自のモデルが試せます

モデル提供いただいた方






ありがとうございます


21 79

今夜のおすすめは モデル🍶
🤗https://t.co/1tFcCUusTP

をベースにSankakuちゃん画像等でファインチューニング
x768やx1024でも学習してて高解像も期待?

VAE無しならbp_1024_with_vae_te.ckpt
好みのVAEある人はbp_1024_e10で

squatting→💩座りむず
https://t.co/tUjtdDKPIl

2 16

よくよく考えると、漫画作るときにWDほどの汎用のモデルは要らなくて、素のSDをキャラごとに商用利用可能なキャラデータでファインチューニングすればええやん、と考えてやってみた。SD2.1でやってみないとわからないが、案外行けそうな気がするぞ。倫理的にはこれが一番問題ない

0 2