//=time() ?>
stable-diffusion-webuiにsd2.0を読み込ませようとしたらエラーがばくはつした
SHA256を確認したけど、ダウンロードは成功してる
まだ対応してないみたい
#aliceinailand
Update on the #stablediffusion 2 with automatic webui, seems to be working now with some modifications 🤖
#StableDiffusion2 を768-v-ema.ckptで動いたけど、使いこなせないw
768x768の生成は確認できた
Waifuとかアニメ系をwebuiで回してるので、Negative無いと可愛い絵を出せないw
絵怖いよう
webui対応とSD2ベースのfine tunedモデルに期待
↓いぬごやさんのノートつこうた
https://t.co/77b6yhye9h
Tried #stablediffusion 2.0 and ran a few samples.
Quality looks certainly better but waiting for a Automatic111 webui integration before I can generate any banger images with it
webuiのスクリプトに googleのMiDaSを使いdepthmap作れるものがあるので、昨日ちょっと遊んでたんですよねー😆
アナグリフに変換して立体視で見ていたけど20秒見続けるのが限界だわ😅
https://t.co/NOl3eWJ8KJ
元素法典2.5:立绘法
DDIM増えてるなーとか、
プロンプトエディティング使ってるの、相当増えてね?
webUIでしか実行できないんだけど、、て感じです。。
(1/2)
WebUIには「高解像度 fix」という機能があります。これは複数の用途がありますが、そのうちの一つがこの問題の修正です
「Firstpass解像度」はポイントです。デフォルトでは、フルサイズの画像解像度に基づいて、自動的に小さな解像度を選びます。
しかし、その分、結果が予測できないこともあります。
#AIart の話ですみませんが、
StableDiffusion webUIをつかってるひと向けの有益情報があったので引リツ。
少し試したところ、手がぐしゃぐしゃになる確率はけっこう下がったと思います。(完全ではないですが) https://t.co/FODK2IDhoB
webuiのOutpainting mk2(2枚目が元の出力)
Fall-off exponenは数値上げたほうが良かった感触。
#stablediffusion
#trinart
#AIイラスト
Black fridayで安くなっていたのでtopazの画像処理系ソフト買ってみました。WEBUIでESRGAN系雑に使ってもいいですが、使うモデルをソフト側で選んでくれるのでシンプルに楽ですね。おもちゃとしても普通に面白いです。#topaz
私はdiffusersで #WaifuDiffusion を動かしているのですが、新たに「Long Prompt Weighting Stable Diffusion」を導入したのでwebuiの様にトークン数制限が無くなり、()や[]による重み付けもできるようになりました。これでより正確に欲しい絵が出せるぜ!
#stablediffusion
#AIイラスト #AIお絵描き
CPU環境だと、WebUIをgit pullしても'DPM++ 2M Karras'が表示されないような??
#AIArt #StableDiffusion #StableDiffusionVariant #画像生成AI
donadona style test
#stablediffusion
#stablediffusionwebui
#dreambooth
#NovelAI
iphongでStableDiffusionするDraw ThingsとPCと比較テスト。samplingmethodがWebUIに比べて少ないので比較可能なEuler_aで統一。プロンプトと使用モデルなどはALT。画像は←Draw Things、→SDWebUI