//=time() ?>
#AIArt #counterfeitv2_5
🍩次はsemantic segmentationというのを試してみました😃
🐰画像を色分けして色で「何を描くべきか」指定し出来るんだって
🚀色と物の対応付けはADE20Kと呼ばれる取り決めがあって、ControlNetはそれに準拠してるんだそうです
🍩かくしとびらは封鎖されてしまったか
今日の #stablediffusion というか #AbyssOrangeMix3 (AOM3A1)
森の中を飛ぶ妖精、というテーマで #ControlNet の OpenPose(Diff Model)使用。
3枚目はDesignDollで出力したもの、4枚目は棒人間
Depthだとちょっと接地しがちだな……
#aiart #aiイラスト
ControlNetのちょっと面白い活用方法を思いついた
今までのimg2imgと違ってsegmentationを使えばシルエットが崩れないので、飾り文字を高い精度で生成可能になる
#stablediffusion #seg2image #AIart
GM 🙌 Generated tons of variations from the same base image using #ControlNet last night. Thinking about curating them into a collection. Thoughts on best practices?
3Dマネキンから関節データを抽出してそれを元にAI君が描いている
このレベルの3Dマネキンならフリーソフトで1分で作れる
(初音ミクとこのポーズの組み合わせは多分ControlNetがなくても再現可能なくらいたくさん描かれて(学習されて)そうなので題材としては不適切だったかも) https://t.co/jdOWhpOk4i
ControlNet Pose&depth2image animation test #stablediffusion #AIイラスト #depth2image #pose2image
ControlNet posing reference picture
It takes only 1 sec to rig an openpose skeleton to the character mesh. The openpose skeleton makes posing a lot more accurate.
AI painting practice - Blender + ControlNet #アークナイツ #Arknights With more practice, one day I will make a short comic series about Endfield.
(ControlNet makes posing more accurate. It takes only 1 sec to rig an openpose skeleton to the character mesh. Ref pic in thread.)
脚がー!指には並々ならぬ拘りのある長文negativeプロンプトを入れてみたり、少し付け足してみたけど、どうしたものやら。
私の場合はDrawThingsがControlNetに対応すれば解決するので、今頑張る必要は無いかな。
#PicassoDiffusion
🎨digitally painting in procreate and then passing those into controlnet for sd to think on is just wild 🤯