//=time() ?>
ControlNet depth test: unexpected...🤔#AIイラスト Prompt👇
https://t.co/wSn45enmEd
mocopiでモーキャプした動きを使って、私のパーカー姿をControlNetに食わせてイラストにしてみた!
とりあえず適当にボーン割り当てたけど、おもしろー!
#ControlNet scribbling is so much fun. Unfortunately I failed to save my trackpad scribbles 🤦♂️ But here is a thread with outputs generated from a custom dreambooth model of mine. Each group had the same underlying scribble.
ホントは片手目隠しにしたかった。
「手で目隠し」+「踏みつけ」の構図は難易度高すぎました。。
ControlNetでリベンジする…かも
「目隠しメスガキの踏みつけ」
#AIイラスト #AIart
#AIイラスト好きさんと繋がりたい
#ちちぷい #AIピクターズ にも投稿しました。
難関「掌でお皿を作るポーズ」にcontrolnetで再挑戦しましたわ。
まず、ボーンを自分で作ってopenposeするも失敗。掌の位置や向き、何より「パース」を理解できないんですわね(3枚目)
今度はscribbleでポンチ絵を描いて生成してみたところ、4枚めが出現。向き不向きがありますわね~。
Experiments with ControlNet. This version takes an image, extracts a pose, and uses that pose to guide #RetroDiffusion image generation.
Absolutely insane, this might lead to easy animation.
This is just ONE of EIGHT input options!
StableDiffusionにControlNetの導入が完了したので実験。
生成するイラストにある程度好きなポーズを指定することが出来るようになりました。
なお、アクロバティックなポーズは苦手な模様。
ControlNetの色んなモデルや素材画像を試してだんだん勝手が分かってきた。いや凄いなーこれ…。Hires. fixやろうとするとエラー出るのが玉に瑕だけどいずれ直るのを待ちたい。画像はこの間外食してたときのツイ主近影(AIによる超美化)および深度推定画像。
こりゃシンプルでいいね!簡単に試せた♪
支点だけ動かすから体型維持とか難しいけどw
Saveした棒人間のpose画像をControlNetで使うだけ
Pythonなのはflaskで簡易Web鯖にしたいだけで、🖱️グリグリの実体はThree.js!
htmlとcssとJavaScriptだけとかに出来たりする?