//=time() ?>
今Stable Diffusion web UIの学習モデルは変更できるとのことだったので、既存のものから別のアニメや二次元イラストに特化した奴に変更してみた。
一気に平均のクオリティが上がって安定した
※元の学習モデルも当然二次イラスト食べてるけど、割合が少ない(少ないというよりも他が多い)
outpainting機能使ってみた。
左:機能使用後
右:元画像
まだ設定がよくわからず適当だけど、ちゃんと見切れていた部分を補完しようとしてる。頭の形だってちゃんとわかって丸くなってるのすごい。
Stable Diffusionでできる二次イラストはこんな感じ。
ロゴやサインの名残みたいなのが浮き出てるな(´◉◞౪◟◉)
にしてもPromptをしっかりするだけでここまでできるとは