来てましたわ(;´∀`)シュゴイ
個人的にはWebUi便利すぎてWaifu1.4も楽しみ過ぎで眠たくならないと眠れない(^q^)

0 3

stable-diffusion-webuiにsd2.0を読み込ませようとしたらエラーがばくはつした
SHA256を確認したけど、ダウンロードは成功してる
まだ対応してないみたい

0 0

Update on the 2 with automatic webui, seems to be working now with some modifications 🤖

5 48

を768-v-ema.ckptで動いたけど、使いこなせないw
768x768の生成は確認できた

Waifuとかアニメ系をwebuiで回してるので、Negative無いと可愛い絵を出せないw
絵怖いよう
webui対応とSD2ベースのfine tunedモデルに期待

↓いぬごやさんのノートつこうた
https://t.co/77b6yhye9h

2 24

Tried 2.0 and ran a few samples.
Quality looks certainly better but waiting for a Automatic111 webui integration before I can generate any banger images with it

1 34

webuiのスクリプトに googleのMiDaSを使いdepthmap作れるものがあるので、昨日ちょっと遊んでたんですよねー😆
アナグリフに変換して立体視で見ていたけど20秒見続けるのが限界だわ😅

https://t.co/NOl3eWJ8KJ

1 8

元素法典2.5:立绘法

DDIM増えてるなーとか、
プロンプトエディティング使ってるの、相当増えてね?
webUIでしか実行できないんだけど、、て感じです。。

(1/2)

0 2

WebUIには「高解像度 fix」という機能があります。これは複数の用途がありますが、そのうちの一つがこの問題の修正です
「Firstpass解像度」はポイントです。デフォルトでは、フルサイズの画像解像度に基づいて、自動的に小さな解像度を選びます。
しかし、その分、結果が予測できないこともあります。

2 11

一枚目:StableDiffusion GUIで出力
二枚目:WebUI (Google Colab)で出力

ぜんぜん違う

0 2

Kiriko from Overwatch 2
1.3 embedding
>100 source images, 50k steps
just paste the file into the embeddings folder of the webui and prompt with "kiriko"
https://t.co/FUSoSs518K

0 5

の話ですみませんが、
StableDiffusion webUIをつかってるひと向けの有益情報があったので引リツ。
少し試したところ、手がぐしゃぐしゃになる確率はけっこう下がったと思います。(完全ではないですが) https://t.co/FODK2IDhoB

239 2302

webuiのOutpainting mk2(2枚目が元の出力)
Fall-off exponenは数値上げたほうが良かった感触。



0 1

私はdiffusersで を動かしているのですが、新たに「Long Prompt Weighting Stable Diffusion」を導入したのでwebuiの様にトークン数制限が無くなり、()や[]による重み付けもできるようになりました。これでより正確に欲しい絵が出せるぜ!

3 25

CPU環境だと、WebUIをgit pullしても'DPM++ 2M Karras'が表示されないような??

0 1

iphongでStableDiffusionするDraw ThingsとPCと比較テスト。samplingmethodがWebUIに比べて少ないので比較可能なEuler_aで統一。プロンプトと使用モデルなどはALT。画像は←Draw Things、→SDWebUI

1 6

ひさびさにstablediffusion webuiを起動したんだけど、何もかも忘れていてノイズしか出力してくれなかった

0 0