//=time() ?>
ControlNetを使ってバイクのデザイン画はどれぐらい行けるかのテスト。元のデザインは全部自分で描いているのでレンダリングでどれぐらい見られるようになるのかってところ。
#ControlNet お試し(02/16)した時に使ったメカ娘飛行形態(その1)をDepthでやってみたら最の高じゃないですか
(4枚目はDepth画像)
ってasterpieceってなんやねんw(いつの間にか脱字していた)
#AbyssOrangeMix3 (AOM3A1) #StableDiffusion #aiart #aiイラスト
#AIArt #counterfeitv2_5
🍩次はsemantic segmentationというのを試してみました😃
🐰画像を色分けして色で「何を描くべきか」指定し出来るんだって
🚀色と物の対応付けはADE20Kと呼ばれる取り決めがあって、ControlNetはそれに準拠してるんだそうです
🍩かくしとびらは封鎖されてしまったか
今日の #stablediffusion というか #AbyssOrangeMix3 (AOM3A1)
森の中を飛ぶ妖精、というテーマで #ControlNet の OpenPose(Diff Model)使用。
3枚目はDesignDollで出力したもの、4枚目は棒人間
Depthだとちょっと接地しがちだな……
#aiart #aiイラスト
ControlNetのちょっと面白い活用方法を思いついた
今までのimg2imgと違ってsegmentationを使えばシルエットが崩れないので、飾り文字を高い精度で生成可能になる
#stablediffusion #seg2image #AIart
GM 🙌 Generated tons of variations from the same base image using #ControlNet last night. Thinking about curating them into a collection. Thoughts on best practices?
3Dマネキンから関節データを抽出してそれを元にAI君が描いている
このレベルの3Dマネキンならフリーソフトで1分で作れる
(初音ミクとこのポーズの組み合わせは多分ControlNetがなくても再現可能なくらいたくさん描かれて(学習されて)そうなので題材としては不適切だったかも) https://t.co/jdOWhpOk4i
ControlNet Pose&depth2image animation test #stablediffusion #AIイラスト #depth2image #pose2image
ControlNet posing reference picture
It takes only 1 sec to rig an openpose skeleton to the character mesh. The openpose skeleton makes posing a lot more accurate.