//=time() ?>
SD2.1系のwd-1-5-beta2-aesthetic-fp16に対する追加学習を行ったモデルhakoAとhakoBを公開しました。
短辺768以下だと顔崩れがち。
基本SD1系とマージできないはずです。
https://t.co/fjQkGulSSR
SD2.1系のwd-1-5-beta2-aesthetic-fp16に対する追加学習を行った
hakoA→自分が生成しているものに近いやつ
hakoB→バランス良さげ
学習枚数はA20枚B70枚
800x1200で出力しないと顔が崩れるので普通のPCだときついかも
Hugging Faceで公開します
@AI_Illust_000 そんなものはない…けど、私の中の現状最適解は「Baka Diffusion」です。
リーク派生でない&設計思想がNAIと同じ(WD1.4+追加学習)なのでプロンプトの利きがよく、二次元的絵柄に強いです。
また、なかやま先生の「DeDeDe」「HonyararaMix」あいきみ先生の「Aikimi_dC3」も現状ではおすすめです。
またのほしお様のすたーぱっくをお借りしてMitsua diffusionの追加学習を試しています。今回はdreambooth。 #mitsuad1 #mitsuad1_finetune
本日の絵。
恋ダンスのトレス。
みくにゃんのカバーで話題になっていたので、実験がてら出力。
追加学習を駆使しても、腕が溶けて中々再現の難しい構図だった。
#Aiart #AIArtworks #AIイラスト #恋ダンス
RoLAとかControlNetなどツールの追加や独自の追加学習ができるのがStable Diffusionの楽しさやね。
#midjourney #AIart
ここ何日かでAI絵師君色々勉強してて、その1つで僕の絵60枚ぐらいを巷のデータベースに追加学習させて出来た例がこちら ←僕 AI→
僕が描きそうな雰囲気が出てて所々パーツの印象が近かったりして面白いw
おはよう~
WD1.5 beta2をベースに自分の好みになるように追加学習したAikimi_dC3をアップしました
高解像とかはNovelAIリークと思われるモデルよりも勝っている部分があると思います
#StableDiffusionV2 #WaifuDiffusion
https://t.co/TLeMUQI8Pi
同じプロンプトでもloraの強弱で全然絵が変わるね
0.3と0.8でかなり違う
0.3までくるともはやほむら感はなくなるけど絵のクオリティは上がるっぽい
やっぱり追加学習が邪魔してるんだろうな
#AIイラスト
過去の自分でも自分は自分っていう事なのかなあ。今の絵柄に取り込むつもりがない過去作3DCGもLoRAの訓練データにぶっこんだらなんか絵柄の好み度が上がった。昨日の学習データより髪の描き方が好み。 #stablediffusion
そして追加学習つきのモデルにSDタグつけていいのかはいまだ迷いつつ。
p40
Euler a
使用モデル #SE_V1_A
512*512 20step 6秒
2048*2048 20step 1時間15分
使用感
ファンがないので熱がやばい
4*2pinでの給電はくそ
だいぶ古いものだがかつてのフラグシップと呼ぶだけあって酷評するほど遅くはない
VRAM24GBは魅力的
今後の使用用途
追加学習
総括… https://t.co/3uQjFd6NNA