ControlNet Semantic Segmentation test.

5 89

Scribble to Diffusion w/ is kind of a game changer.

A quick thumbnail sketch, a prompt, and you get a very controllable composition.

Running in v1.5

4 34

ControlNetの動作テスト2
色塗り分けした3dモデル突っ込んでsegment機能で生成した画像、本当にぴったり指示した通り出てきて感動してる
(1枚目がsegment用塗り分け画像、2枚目が生成結果)

217 939

ディスク容量をなんとか空けて、ControlNet 試用。

0 14

ControlNet Semantic Segmentation test.

3 43

SD2.1へのControlNet対応は、私とWaifu Diffusion の人とで行っています。しかし、モデルが多いため、もっと多くの人がいると助かりますね。

7 43

直前のリプの続きです
数値はLeReS Resolutionのものです
SEED値はあえて固定してません

1枚目:元絵
2枚目:512
3枚目:1024
4枚目:2048

0 4

ふたりでハート
ControlNetとLatent Coupleを両方駆使してなんとかできた難しい構図でした。2,3枚目はおまけ。

「新婚夫婦の休日 ふれあい編」



にも投稿しました。
良ければプロフィールのURLから御覧ください。

1 12

せっかくなのでLeReS Resolutionを変えたものも出力しました
見た感じでもかなり影響ありそうですね

生成時に試したサイズなどは2枚目のAlt参照です

1枚目:元絵
2枚目:512(デフォルト値)
3枚目:1024
4枚目:2048

0 3

たくさん学習モデル作って一喜一憂してた
相葉ちゃんとユッズの学習はこれでひと段落にしよう
素材選びがすっごく大事だと知った土日でした。

また、新しい技術をさがすんだ
ControlNetとかいうのが気になってる

6 27

こんな風変わりなポーズでも量産できるようになったのが便利かも。左上が元絵。それ以外はDepthのモデルによる出力。

0 3

昨日やろうとしてうまくできなかった人魚を意識したポーズもdepthならいい感じにできるな?
若干妥協あり。3枚目はDesignDollで出力した画像(AltにDPテンプレ)、4枚目はdepth画像

残りCU 159.86

(AOM3A1) (Depth+Diff Model)

0 2

AI画像ローカルで初生成!
自分のPCから出てくるのはなかなか感動ね!
さて、エクステンション探したりモデル集めしたりに取り掛かるか!
まずはControlNetから!

0 32

ControlNet Semantic Segmentation test.

31 195

controlnetで捗りそうだなと思ったものの2つ目:悪堕ち
seed固定してcannyでweightとguidanceを調整することで元の衣装を微妙にデザイン変えながら悪カラーにできそう

29 182

Prompt は ALT に記載

model :
①pastelmix
②pastelmix
③customized model

controlenet
全部同じポーズ

元のポーズ画像 : "わがはい"



7 41

今日の というか (AOM3A1)

で昨日・一昨日のメカ娘飛行形態のポーズ(DesignDollで作成)をdepthで読み込ませてやってみた結果。ほぼ意図した感じになってるな?

4枚目はdepth画像(AltはDynamic Promptsのテンプレ)

3 8