//=time() ?>
1枚目はCJD2.1.0beta
2枚目はCJD2.1.0
斜めってる上にごちゃっとしたプロンプトなので解りづらいけど大丈夫そう
#CoolJapanDiffusion
#AIイラスト
何を作ろうとしたかは近しい人なら分かると思う。
左は期せずして別人に近くなったもの。
これ以上似せる気はないけど、髪型は再現できないものかのう。
#cooljapandiffusion
全身を入れるとどうにもならないので、SD2.1で通ったものをモデルだけCJD2.1.0betaに差し替えてテスト(DrawThingsだとこれがさっくりできるのが利点)。
左がCJD2.1.0beta。
CJDの方が白飛びと黒がベッタリするのが気になる。SDも白は飛んでるけど。
#StableDiffusion2.1
#CoolJapanDiffusion
同じプロンプトで生成したマイブームのマグショット画像、左が #CoolJapanDiffusion 2.1試用版で右が #WaifuDiffusion 1.4AnimeEP1、どっちがとは言いませんが生成画像の歩留まりが全く違うんです、私程度の実力では。
これはhighres.fix前と後の画像と呪文及びseed値等。
私が考える自分の環境的な問題
・モデルは読み込めてる、vae等に関してはそもそもよく判ってない(ckptに含まれてる?外に出てるファイル?とか
・RTX2000系はそもそも違う出力をする、と言われてる
#CoolJapanDiffusion
どうもCJD2.1.0betaの出力がおかしい。モデルの不備か、DrawThingsにckptをぶち込んで動かしてるのがいけないとしか思えない(WEBUI向けにチューニングされてる?)。
で、試しにiPhoneからAPIを叩いてみたけど、かなり待たされて↓これ。
今夜はこれ以上試さない。
#CoolJapanDiffusion
今年最後の取って出しAIカラス
最近の森カラスのプロンプトを新しく出たCoolJapanDiffusionにぶち込んでみました。おお、草木が絶妙に日本っぽい!
#stablediffusion #CoolJapanDiffusion
2.1.0beta、背景が出ないなー。
MBAのDraw Thingsのほうはモデルを入れるのに何度か失敗して、正常に動いてないかもしれない。やり直そう。
これはiPhone版Draw Thingsから。左が2.1.0beta。
#CoolJapanDiffusion
取説その他を参考にnegativeにあれこれ突っ込む。
左が2.1.0beta。
私の画風には向いてないっぽいので、ちと違う方向で試す。
なお、プロンプトに固有名詞は使わない縛り。
#CoolJapanDiffusion
左が先ほど公開された2.1.0betaをDraw Thingsに突っ込んだもの。設定は右と同じ。
「うちの子」プロンプトをそのまま突っ込む。あれー?何度回してもどこかがおかしい。
前のほうが好み。
何か違うものにしてみるか。
#CoolJapanDiffusion
#WaifuDiffusion 1.3.5_80000 AUTOMATIC1111 Colab用ノートブック作りました。
https://t.co/2OL9qkVoTT
まだ、学習が足りない気がします。
#CoolJapanDiffusion 2.0との比較です。呪文は同じ。
左がCJD、右がWD。CJDの方がよく見えます。