//=time() ?>
さっき描いた絵を自分の絵でファインチューニングしたAIでi2iしてみる
目にかかってた髪ないなった・・・あと髪留め・・・
塗りが滑らかになるなぁ・・・
#AIイラスト
#AI絵師
https://t.co/7RTgMWAhMA
@UUYProのイラストで学習
Dataset:512×512 52枚(左右反転含む)
step:40000 epooch:769
レイヤ構造:1,2,1 活性化関数:relu 学習率:0.000005 sampling:once
(他Automatic1111の初期設定)
#AIart #AIイラスト #anythingv3
#ファインチューニング #HyperNetwork
@UUYProのイラストで学習
Dataset:512×512 52枚(左右反転含む)
step:25000 epooch:390 最終時損失:0.07付近
レイヤ構造:1,2,1 活性化関数:relu 学習率:0.0001 sampling:random
(他Automatic1111の初期設定)
#AIart #AIイラスト #anythingv3
#ファインチューニング #HyperNetwork
reference sheet や tachi-e などで作ったキャラを i2i で増幅して DreamBooth に読み込ませて階層マージで色問題を完全させるというワークフローで作ったオリジナルキャラファインチューニングモデルです
衣装の再現度は完璧じゃないんですが、打率が上がりましたし加筆コストも下がりました
1枚目:ファインチューニングモデルで生成してコントラストをGIMPで直したバージョン
2枚目:1枚目を普段使ってるモデルでアップスケールしたバージョン
学習によって得られた衣装がほぼ維持されたままなので、これならいいかも知れません
クオリティは自分的合格ラインを超えてます
#AIイラスト
打率上がってるんではないでしょうか
同じ子で服装もほぼ同じという目標は実現した?
後はこのファインチューニングモデルだと、いつものプロンプトが伝わりにくいので、独自のプロンプトのバランスを考えて仕上げていく必要があります
1枚目:学習したファインチューニングモデル
2枚目:学習前の汎用モデル(マージモデル)
(同じプロンプトです)
3枚目:学習に使ったAIイラスト
エルフが学習した人物と格好になる確率がとても高くなっています
学習に使った画像が4枚しかないので顔の向きが固定されてしまっています
#AIイラスト
ちゃんと猫も出力できたー
なかなか難しいな
猫でファインチューニングしたモデルをそのうち作ってみようかな
#stablediffusion #NovelAIDiffusion #AIイラスト #anything_v3 #waifudiffusion #Python #PyTorch #無料アイコン #猫好き #猫のイラスト
しゃがむエルフ(自分で作ったAIイラストを使ってファインチューニングしたキャラ)
おやすみなさい!
#AIイラスト
#ACertainThing
AUTOMATIC1111のembeddingでファインチューニングをした。1枚目と2枚目は自分の16枚の絵で学習し、step10万学習速度0.0005ベクトル数1、二枚目は"miku"のプロンプトを足した。3枚目は学習データをmimicの出した絵で71枚まで水増しし、学習速度を0.005ベクトル数5にしたもの
Waifu Diffusion 1.4 Anime Release Notes
https://t.co/yhvH8WAxh3
SDv2.1 Baseをベースにファインチューニングを行ったStable Diffusion v2モデル
オリジナルソースを提供する画像掲示板を通じてダウンロードされた546万8025点のテキスト画像
クオリティとレーティングのメタデータも追加された。
この件、うまく行った気がします
1枚目の子を6枚作ってファインチューニングして、2枚目みたいに同じ子(若干目と年齢感が違うけど)をポーズやシチュ指定して生成できるようになりました
精度は高いですね https://t.co/pZCw8taWoS
同じプロンプトでも、雰囲気は似てるけど別人だし各パーツがちょっとずつ違ってて同じ日の格好ではないな、みたいなのを改善したいので、たまたま同じ格好の出力を何個か引き当てたら、それを使ってファインチューニングして、同じ子を出せるようにしたいと考えています
#AIイラスト
https://t.co/CJqXAJoa7E
↑Colab で動かすStable Diffusion (Fintuning Model Ver 1.0)
個人がファインチューニングしたその方々独自のモデルが試せます
モデル提供いただいた方
@8co28
様
@nikaidomasaki
様
@p1atdev_art
様
ありがとうございます
#stablediffusion
#WaifuDiffusion
#AIart
今夜のおすすめは #BPModel モデル🍶
🤗https://t.co/1tFcCUusTP
#ACertainty をベースにSankakuちゃん画像等でファインチューニング
x768やx1024でも学習してて高解像も期待?
VAE無しならbp_1024_with_vae_te.ckpt
好みのVAEある人はbp_1024_e10で
squatting→💩座りむず
https://t.co/tUjtdDKPIl
よくよく考えると、漫画作るときにWDほどの汎用のモデルは要らなくて、素のSDをキャラごとに商用利用可能なキャラデータでファインチューニングすればええやん、と考えてやってみた。SD2.1でやってみないとわからないが、案外行けそうな気がするぞ。倫理的にはこれが一番問題ない