//=time() ?>
SD2.1で実験。こっちの方が線画に忠実というメリットがある(ControlNetが効きやすいので
アニメ塗りとギャルゲ塗?
アニメ塗もっとシンプルにしたいんだけど難しい
Animagine XL V3
構図はNAIv3で出したものをControlNetでかなり反映できるんで、SD1.5よりは有能
もうちょい塗りと背景頑張ってほしいなあ
5.背景を変えたいので全部消します
6.controlnetを使い、背景を再生成します
7.5のやつを前景として合成します
疲れたので今日はここまで・・・
年賀状イラストの武器文字。
1枚目をあらかじめ作っておいてi2iでControlnetのsoftedgeをweight0.6、guidance end0.3くらいで設定して、strength0.9くらいで作りました。
楽しかった✨
屋上のスルトさん
controlnet Tileで手描きラフを読み込むときの設定をいろいろ調整中~
かなり手間がかかる代わりに、Scribbleだと構図が変わってしまうようなパターンでもTileだと再現できますね(この絵の場合、Scribbleすると足を組む)
うーん、Scribbleでガチャした方が楽か…
AI
SDXLでも実験!学習に時間がかかるので1影しか作っていないけど!!! SD1.5より塗りが繊細だし、参考になる・・・!!!
SDXLの仕様でControlNetの制御が甘いけどお見本にする分にはこんなもんで十分だよ!!!
というかSDXLにもSDHK04系のくっきりアニメ塗モデルほしいなぁ https://t.co/wjpfDuOdy9
1枚目:灰色影LoRAなし
2枚目:灰色影LoRAあり
3枚目:元線画(ControlNet用)
悪くないな。線画を読み込ませて色の参考をとったり、陰影レイヤーの参考にしたり。
そのまんまは使えないけど影レイヤーの参考用に使える
ComfyUI test
※same setting as usual with out ControlNet and Lora
Blonde hair : #AIイラスト #AIイラスト好きさんと繋がりたい #aiartcommunity #AIart
【ゆるぼ】機械学習くわしい人へ
こういう画像とこういう画像の組み合わせが1000組あります。
この二つを学習させて、左側の画像から右側を生成する方法はあるのでしょうか?
ダメ元でやってみたControlNet-llliteではダメでした。
最終的にはノーマルマップとcannyを紐づけたControlNet-llliteを作るのが目標なんだけど
ControlNet-llliteは(おそらく)データセット量が少ないと色合いがおかしくなるので、
補助としてノーマルマップ概念を学習させたLoRAが必要になると思うのだよね
1枚目から順番に
diffusers_xl_canny_full.safetensors(2.5 GB)
diffusers_xl_canny_mid.safetensors(545MB)
diffusers_xl_canny_small.safetensors(328MB)
所謂本家diffusersのControlNet。
fullはモデルサイズが大きいの以外目をつぶればよい感じ。
mid、smallは色合いが若干微妙かも?
https://t.co/FxsIX0UHhS
のSDXLの各種ControlNet(的なもの)を検証してみる。
まずはcannyから。読み込ませる線画はこちら。
生成AIのイラストを加工した線画になります。
次にControlNet。
1枚目:tile にラフ入れて、t2iで生成。
2枚目:tile にラフ、scribble に線画のみを入れた multi ControlNet で、t2iで生成。
3枚目:scribble に線画のみ入れて、雑色指定ラフを 高 Denoising Strength でi2i。
i2iよりはマシになってきた感はある…かな?絵は大分変わるけど。
Hantomin さんが色指定ラフからの i2i 試してるの見て、ControlNet 使ったらどうなるだろうと思って試してみました。
1枚目が雑色指定ラフ。
2枚目が形が崩れない限界までDenoising Strength を上げた i2i。
たしかに残念な感じになりますね。
ControlNetに続く→ https://t.co/yXbqhW3aOT