//=time() ?>
GN :D
Multi ControlNet Warp but without all those face-palms :D
Init video by
@austingumban
#stableDifusion #warpfusion
今日はControlNetの落書きから画像生成するやつを試してみました。
設定にもよるらしいですけど、なかなかのいい感じに元の線を参考に描いてくれるようです...
つまり頑張れば良いhighlegがつくれる🤩
もっと時間がある日に頑張って描いてみるか......
(エラーっぽいので、再投稿)
AIイラスト
@zzzAI19 クリスタは加筆に便利だし、デッサンモデルも併用できてControlNetの土台も作りやすくていいですよ👍
AIだけでも人間だけでもない…やはり両者が合体したサイボーグは強いので
出力手順の実験してたのよ。
構図決めと次ステップ素材としてラインでガチャして
i2iにてControlNet併用でガチャる
・・・と、普段やってる全部ガチャより時短になるのでは?と。
結果!
ただの回り道のような気がしてならない
あとガチャで当たり出た時のトキメキ的な物がないw
みくにゃんLoRA作ったのは、恋ダンスやらせたいな~ってのが動機だけど、もうちょっと時間かかりそう
ControlNet使えばいけるかな?
あと、AI君のいうとおりに全力でネコ関係のタグ入れたら、一気にみくにゃんぽさが増してびっくり
#前川みく
#StableDiffusion #LoRA #Anythingv4_5
RoLAとかControlNetなどツールの追加や独自の追加学習ができるのがStable Diffusionの楽しさやね。
#midjourney #AIart
線画を塗ることはSD 2.1ベースのものでもControlNetでも可能です。例えば、Waifu Diffusion 1.5でもできますが、Untitled:Replicantでも可能です。リークモデルを使う必要はありません。
やったー!たぶんDreamBoothの学習に成功しました(:v;)g。プロンプト【eruthiana】で私が描けるようになった!これは個人的大躍進!
※手についてはもう少しControlNetを研究したりimg2img2でなんとかできる予定。
ControlNet (canny) for 2.1 is working and released!
link in comment
cc @StabilityAI @EMostaque
自作イラスト(1枚目)にControlNetのCanny Edge(2枚目)とFake Scribbles(3枚目)を使ってAI塗りを試してみました
どちらも線画に忠実と思いきやFake Scribblesの方は線画をそこそこ改変しますね
塗りの指示はテキストベースなので細かい部分は難しいです