DrawThingsで100枚回して髪型の打率は15%ほど。
そこから4枚。
髪しか見てませんw

0 0

2.1.1.beta、demoだとちゃんと出る(左上)。
おそらく環境の差ですなー。
iPhone(A16)とM1 MacbookのDrawThingsで無理やり動かしてる時点でアレなんですけど。
塗りの感じは2.1.0のnegative(下2つ)くらいが私好み。

0 0

左上…取説通りのプロンプトをDrawThingsに食わせたもの。
右上…↑を2.1.0に入れたもの。
左下…前に2.1.0で作ったもの。
右下…↑を2.1.1betaに入れたもの。
2.1.0で作ったものに取説のnegativeを入れる実験はこれから。

0 1

雰囲気が近いものを。
余計な髪と手は見えません!
(DrawThingsのimg2imgはイマイチ使いづらいので、ずっとtxt2img縛りでやってる)

0 0

わーん、長い道のりだったー!
DrawThingsで出力がジャギって困っていたのだけど、モデルを読み込むときに、Custom Variational Autoencoderのところで同じモデルをもう一度読み込んで成功。
これでローカルでも試せる。

0 3

左上…CJD2.1.0beta(DrawThings)
左下…CJD2.1.0(同上)
右上…CJD2.1.0(HuggingFaceDemo)
右下…CJD2.1.0(AUTOMATIC1111版WebUI)

何かがおかしい。
CJDでは今のところDrawThingsは非推奨環境かな。
yamlを読み込む様子が無かったし。

0 0

左がHugging Faceのデモ、右上がDrawThingsで動かした2.1.0、右下がDrawThingsの2.1.0beta。
デモだと私の画風というか画材が通らないのか。
環境依存で出力が変わるのは仕方ないけど、普段と違う絵を描かないとテスターとして役に立たないなぁ。うーん。

0 0

全身を入れるとどうにもならないので、SD2.1で通ったものをモデルだけCJD2.1.0betaに差し替えてテスト(DrawThingsだとこれがさっくりできるのが利点)。
左がCJD2.1.0beta。

CJDの方が白飛びと黒がベッタリするのが気になる。SDも白は飛んでるけど。


0 0

どうもCJD2.1.0betaの出力がおかしい。モデルの不備か、DrawThingsにckptをぶち込んで動かしてるのがいけないとしか思えない(WEBUI向けにチューニングされてる?)。
で、試しにiPhoneからAPIを叩いてみたけど、かなり待たされて↓これ。
今夜はこれ以上試さない。

0 2

おやおやー?プロンプトもseedもモデルも設定も全部同じにしたのになー。
右がiPhone版、左がM1MacBookAirで動かしたiPad版。
SDに関しては他のに比べてiPhone版DrawThingsのほうが良い結果だと先日言ったけど、これはメイン環境を変えてちゃんとしたものを作ったほうがいいわ。

0 0

0.4のテスト。
Draw Things、DiffusionBeeノーマル、DiffusionBee HQ。
1枚だけならタイパがDrawThings一択で(iPhoneすげー)、寝てる間に回すなら設定そこそこのBeeノーマルかなぁ。HQはM1で動かすのには無理がある。

0 0