//=time() ?>
Stable Diffusion による2倍高速超解像、VAEを入れ替えれるでと作者から教えてもらい、VAEを入れ替えたところ、確かに色味は元に戻った。が、やはりノイジーだ。
3.なんか城みたいなのが邪魔なのでinpaintで再生成(なんか変な髪できたけどほっとく。この後超解像で512pxの画像を2048pxに拡張、後から見るとこの拡張の段階で粗が酷かったかも。生成の時点でステップ数もっと増やすべきかな)
Latent Upscaler の実験、深津さんのおっしゃった通り、グラデーションマスクを作って合成したら、継ぎ目がなくなった。1枚目がCJDで生成された元の画像、2枚目がLatent Upscaler、3枚目がUnconditional な超解像です。どうですかね。
超忙しいけど少しずつ…
#StableDiffusion 2.1のInPaintingで実装したOutPaintinigで左右にループする横長画像を生成。latent diffusionで超解像。
途中、切れているところもあるけど…
#stableDifusion
友人とTRPGの話をしたので。
かっこい騎士写真は生成したことはあるけれど、今回はDerridaモデルでイラストに挑戦。
超解像を入れたのでちょっとディティールが…色々考えよう
花丸ちゃん(*‘∀‘)
「彼女はいわゆる美人ではないものの、可愛かった。美少女で通るだろう。~」(続きはALT)
#AIArt #DreamBooth 超解像のみ
やっと、
#StableDiffusion 1.5でOutPaintingを実装し左右にループする横長画像を生成。
形状破綻も少なく超解像前だけど結構繊細になったような…
備忘録
diffusers 0.7.2
runwayml/stable-diffusion-v1-5
runwayml/stable-diffusion-inpainting
1.retouch
2.超解像化ソフトウェア fin
1generate 5anlas , i2i 2~5anlas
about 50anlas🤔
Cool Japan Diffusion 、200万ステップを超えたので、現状を公開します。のほしおさん (@ssohsn )さんの画風をお借りして、ウマ娘のポートレートを作成しました。ちっこい64x64はできているんですが、256x256の超解像をするとまだぼやけてのっぺりしているというのが現状です。