//=time() ?>
The new Stable Diffusion 2.1 models are now available in diffusers 🎉
Make sure to install from main to use the 768 model. https://t.co/yJcRvSVdVY
After 15 hours of test, I can dreambooth with SD2 768 using shivam!
1) Follow @DevDminGod tuto: https://t.co/7kGax5zz5M
2) upgrade diffusers to the latest
1/2
768x768,2000x2[step]追加学習後。
だいぶうまくなったなぁ・・・。一発生成できるとweb uiのHighres-fixみらいなオプションなしでできるからDiffusersで扱いやすくてよい。あと上田しゃんがちゃんと生成されるの感動する・・・。着ぐるみ多いからAIくんも大変だろうに・・。
@magifactory @KaliYuga_ai I tried 512 and 728 training.
With 512, I have not tan solid output but results are very bad. I tried 3K steps and 11K and result are awful.
Example with v2 - 512 at 11K training steps (left) (with diffusers)
old training with v1.5 (right) (with shivam repo)
Huggingfaceで公開されている DiffusersのモデルEimisAnimeDiffusion_1.0v を使ってみた。
Anything3.0と比べると服の装飾などがより細かくなりやすい(気がする)
服装にこだわりたい人にオススメかも?
#stablediffusion #AIイラスト
https://t.co/1CfpPgb7Hy
@izumisatoshi05 素のsd2.0 diffusers版で hatsune miku と kagamin rin 試してみました
…ちょっと出力違い過ぎて、設定ミスったかなとかも思いつつ参考になれば・-・
やっと、
#StableDiffusion 1.5でOutPaintingを実装し左右にループする横長画像を生成。
形状破綻も少なく超解像前だけど結構繊細になったような…
備忘録
diffusers 0.7.2
runwayml/stable-diffusion-v1-5
runwayml/stable-diffusion-inpainting
私はdiffusersで #WaifuDiffusion を動かしているのですが、新たに「Long Prompt Weighting Stable Diffusion」を導入したのでwebuiの様にトークン数制限が無くなり、()や[]による重み付けもできるようになりました。これでより正確に欲しい絵が出せるぜ!
#stablediffusion
#AIイラスト #AIお絵描き
diffusers v0.7.0が77トークン以上のプロンプトに対応したとのことなのでテスト。
同一プロンプトでstable-diffusion-webuiで回したのが1枚目。diffusersで回したのが2枚目。
クオリティーのアベレージがdiffusersのほうが、なんか落ちる気がする。なんでなんだろ。
WifeDiffusion回すとき、インスタンス ON/OFFが楽だからdiffusers使ってたけど77 tokenが上限で最近のリッチなプロンプトが再現されないな。
AUTOMATIC1111はtoken上限に対応してるようで、こっちで回すとクオリティーが全然違う。40枚作ってコンスタントにこのクオリティー。
diffusers 0.5.0✕JAX🏎️はえええ
平均16秒で8枚描けた!1枚2秒w
(割当TPUじゃ8枚8秒は無理やた)
#StableDiffusion
DiffusersでWaifuのV1.3使うにはckptを変換しなきゃいけないんよね?
convert_original_stable_diffusion_to_diffusers.py とか?
マキマさんはSDじゃ無理w
https://t.co/FybSqUM6DG
Hey, if you didn't know, hakurei rolled out a couple of preview models for his upcoming Waifu Diffusion v1.3
https://t.co/BESAi2zhtE
And here's how it was able to fix my shitty drawing from MS Paint
Check out my repo if you're using WD with diffusers
https://t.co/8dSX1ZwIO7
diffusers利用なノートブックに一旦戻した(DDIM/100steps)
あーいけませんいけません
(CFG(Guidance) Scaleは10とした)
#stablediffusion #waifudiffusion
CLIP guided #stablediffusion with the newly released @laion_ai CLIP models using 🧨diffusers
GitHub: https://t.co/2DvQ0o66xN
Colab: https://t.co/0qaiNGrhNa
CLIP models: https://t.co/8TxO8lT6ep
TrinartV2(2枚目)とWaifuDiffusion(3枚目) をブレンドしたモデルで試したみた(1枚目)けど,プロンプトのせいか劇的に良いというわけではなさそう?若干は良い?
#trinart
#WaifuDiffusion
#stablediffusion
作ったdiffusers用ブレンドコード→ https://t.co/Hvsm2nqc1V
水もしたたる何とやら。
こっちはHD化していないので、先人の知恵に感謝しつつ、プロンプトを貼っておきます。
公式版diffusers系の描画アプリならどれでも再現できるハズ。
このプロンプト、イケメンも収率高し。ただ男女ともに脱衣描画されやすいので要注意だ。
#WaifuDiffusion
diffusers v0.3.0は pipe.enable_attention_slicing()
というのが追加されていて 512x512以上の絵が
ローカル環境(+自作スクリプト)でも出せるように
なったよー。うれしい😆😆
#stablediffusion
#img2img で使いたかったinpaint機能がdiffusers v0.3.0で追加されたとのこと。
絵心がなくても、「もうちょっといい感じに直して!」で部分的に加筆修正できるようになったのはありがたい。
1.inpaintでの修正版
2.マスク画像
3.ベースにした画像
#stablediffusion