//=time() ?>
メカ娘飛行形態再び。 #ControlNet (OpenPose+AOM2n用OpenPoseモデル)を使い昨日と異なるポーズでやってみる。
若干助言(前傾姿勢とか)を加えないと変になるかもしれん。
Dynamic Promptsで色などを1枚毎に動的変化させている。
#AbyssOrangeMix3 (AOM3A1) #StableDiffusion #aiart #aiイラスト
tf-pose-estimationでOpenPose互換の棒人間画像を出力できるようにしました。
sd-webui-controlnetのPreprocessorをnoneにして、この棒人間画像のポーズで画像生成できます。
https://t.co/5JL9uiUr5G
話題のControlNetのOpenPoseを試してみる。割と現時点でパラダイムシフト感があるけど、今の技術発展速度的に数か月後にはもっと凄い技術がでてるのかなぁとも思えるので凄い時代だ。
#ControlNet #stablediffusion
controlnet_depthテスト
openposeはスマホだとvrmのモデル動かせるやつでモデルデータが読み込めないのと、なんかバグったので断念
ようやくぽいのが撮れた。
openposeのボーン調整とLatentCoupleで(((upside down)))して回せる程度にはだいぶ安定させられた。
結局のところ百合太極図はモデル次第だなあ、ということで実験終了
難関「掌でお皿を作るポーズ」にcontrolnetで再挑戦しましたわ。
まず、ボーンを自分で作ってopenposeするも失敗。掌の位置や向き、何より「パース」を理解できないんですわね(3枚目)
今度はscribbleでポンチ絵を描いて生成してみたところ、4枚めが出現。向き不向きがありますわね~。
@lakeside529 @fghjkl71903498 Depthなら悲しきロボは生み出せますがopenposeは無理っぽいですね...(雑ポリゴンのモデル作らないと無理かも)
#AIart #AIイラスト #ControlNet Posex!openpose で使える棒人間画像作れるやつ。 詳細ALT。優秀!推定だ手を顔に重ねるとか苦手なので直ポージング出来ると楽wインストールしたあとにいちいちcmdから起動するのめんどいからbatファイルを用意していつでもワンクリック起動。試してみてね~
#stablediffusion
#ControlNet のお試しその2(ACT+AOM2)
①VRoidHubのプレビューをスクショ、②ControlNetのopenposeでポーズ推定、③④推定したポーズを元に「bikini girl」呪文で画像を出力
#stablediffusion
#ControlNet のお試し!
①カスキャで撮影した画像、②ControlNetのopenposeでポーズ推定、③④推定したポーズを元に「bikini girl」呪文で画像を出力
普通に元画像に近い画像が出力されるの凄い…!
モデルはいつものACT+AOM2
#ControlNet #pose2image やってみました。
M1 MacBook Pro使用
Model: control_any3_openpose.pth https://t.co/u7WOBQs1Jv
openposeだと再現が難しい構図へのアプローチ
・どういうこと?
openposeはあくまで棒人間的な処理なので、3D(奥行き)の表現は出来ない場合があります
・例えば?
今回は拳を前に突き出すポーズを例にします
2枚目を見れば分かりますが、拳を突き出している手が再現出来ず3枚目のようになります