//=time() ?>
ラフ→線画ControlNet-LLLite10epoch
もっとぶん回した方が良いかもなーーたぶんそうすると元絵から離れるだろけど、今のままだとぐちゃぐちゃすぎてあまり変わり映えしない
ControlNet-LLLite学習メモ③|とりにく @tori29umai #note https://t.co/uimPGlMr9l
ようやく!ようやく学習できました。
以下のイラストは自分の線画をControlNet-LLLiteで制御してAIに塗らせてもの。
まだまだデータセットの見極め等必要そうです。
AIが勝手に陰影塗ってくれたらいいのにー
できたーーー!!!
とりあえず習作としていきなりラフ→線画にはチャレンジせず、線画→グレースケールのControlNet-LLLite作れた!!!!!!
これは6epoch回したややつ!!!!!!!
試してみた。プロンプト頼みのガチャだった #AnimateDiff を少しでもコントロール可能になったのは素晴らしい!
#AIart #AIイラスト #ControlNet https://t.co/ke7wrIAvyb
試してみた。プロンプト頼みのガチャだった #AnimateDiff を少しでもコントロール可能になったのは素晴らしい!
#AIart #AIイラスト #ControlNet https://t.co/I3X5fViuWZ
駄目だ―!!!!!
今回こそはと思ったけど学習失敗でした。
SDが吐き出した1枚目を2枚目に加工してこれをオリジナルに、3枚目を制御用画像にControlNet-LLLite学習したんですが、これが多分ダメだった・・・!!
たぶん、1枚絵をオリジナル、3枚目を制御用にするべきでしたね・・・!!!
左がHires.fixで出したやつで、右がそれをTiled DiffusionとTiled VAE と ControlNet Tile で高画質化したやつ。
いい感じなんだけどよく見たら小人が出現している笑 denoising strength が高すぎたのかな、、#AIart
controlnet tile を使って画質を上げるのがまだ使いやすいかもしれない #AIart
こはやさんにめちゃくちゃお世話になりながらようやく10epochほどで推論スタート!!
とりあえずフラットな線画から入り抜きのある線画を出力するControlNetを目指して頑張るよ!!
ControlLoRAも試したいけどデータセットを画像+txtじゃなくてparquet?形式にしないといけなくて難しい・・・ https://t.co/iQWmNEsPXk
新しいControlNetのdwさん、とりあえず使える感じっぽいので安心🥰🙏✨
(PCで生成するのも久しぶり。なんか見下し系エルフさんがでました😆💦❤️)
AIイラスト
こういうフラットな線画はinformative-drawingsというアプリでcontour_styleモデルをつくれば簡単に一括で作れるんですよね。
だからまずはフラットな線画を入り抜きのある線画にするControlNetを作ることからはじめようと思う
こういう画像から、こういう線画を抽出できるようになるControlNetを作りたいんですが、その為にはまずは最低でも1000枚画像を出力する必要があると判明した(しろめ
既出かもしれないけどStableDiffusionは、真っ黒に近い画像をほぼ出せないと思うんですが、Nijijourneyは生成序盤でほぼ真っ黒だったりするので、気になって実験してみました
controlnet tileに真っ黒な画像を入れてweight0.5 controlstep0.15でやってみるとSDでも一応、かなり黒いのが出せるみたい