一応試したらDiffusersベース(clip skipは自前で実装)ではclip skipが効きました。clip skip=1 (clip skip未指定=22層)、10です。

3 9

diffusersって2系のtext encoderは最終層が既に切除されてて、自動的にclip skip=2になっていると考えていいんだよね?
このissueは読んだ
https://t.co/YhX7f0fjBG

というか、wd15はほとんどclip skipの違いが出ないのか?
1: clip skip = 1
2: clip skip = 10

2 15

おお…なんかDiffusersのリリースノート見てて気になったのを試してたら、うちの12GBしかないVRAMでまさかの1980x1080サイズが生成できた…。
まあ512x512用モデル使ったので絵の完成度はお察しだけど、ある程度タイルパターンで済むような絵になら使えるか…?

0 2

WaifuDiffusion1.4環境整えてみた
diffusersちょー便利~~~✨

0 7

Mixture of Diffusers for Scene Composition and High Resolution Image Generation

Demo: https://t.co/z6mhxYu1B2

7 29

multi-cond guidance is back!
thanks to for the hardware.
diffusers-play can now do complex batching.
each sample can have different conditions, varied numbers of conditions, differing negative prompts, differing CFG scales, weighted multi-cond
https://t.co/r85Jc9EpXR

2 19

anythingV4+Diffusersで生成した画像たち

すごいなこれ!

0 1

そういや、macOS版Diffusersを入れてみた。
右がDiffusers(左はDrawThings)。Guidance Scaleが無いのと、サンプラーが選べないのと、seedが1000まで&ランダムなので、単純比較できず。
img2imgも無いし、StableDiffusionベースモデル1.4〜2.1だけなのでアプデ次第。

0 0

お世話になっております。
diffusersのunetのconfigのsample_sizeがなぜか32になっており、heightとwidthを指定せずに生成すると、256x256の品質が著しく低い画像になってしまうという問題が確認できました。

一枚目: unetのコンフィグ
二枚目: 256x256
三枚目: 512x512

0 3

ckptを変換してdiffusersで試してみました!
Anythingv3とは雰囲気がかなり違いますね 体の描写や背景は今までで一番性格かも?webuiじゃないのでアップスケーラー等が使えない分キャラが小さい絵は苦手か(大人しくwebui使えば解決する話)

2 14

Diffusersを動かす環境ができたので生成してみた

1 8

final,Diffusersで小細工なしでしっかり動いた!!!

しかもかわいい!!!!
プロンプトの中身全然ないけどかわいい!!!!

0 10

Running an old "light painting" thru the diffusers sure yields some neat results.

0 1

オープンソースのDALL-E2(Karlo)が公開され、Diffusersにも搭載された

Karloは、韓国のAI開発組織「カカオブレイン」によってトレーニングされたunCLIPモデル

Model: https://t.co/m2Ht5HHB7h
GitHub: https://t.co/Rrl5bclw5Y
Demo: https://t.co/FMFoFvPp6w
https://t.co/XItLTyNvTO

7 36

とはいえstable diffusionを実行するのにpythonとかpytorchとかdiffusersとかlinuxとか普通は使ったこともないものをなんとかしないといけねぇ…と思っていたら1か月もしないうちに(それこそ週単位で)Windowsで簡単に動かせるツールが出たりオンラインで無料で使えるサービスがでてきたりした。

0 11

PyTorch 1.12.1 on Mac:
- diffusers Unet working once again
- k-diffusion DPM-Solver++ (2M) sampler working probably for the first time
this older version of PyTorch has fewer training bugs, so might give us a path to running diffusers fine-tuning on Mac.

1 3

結局最後2時間くらいかけて をdiffusers.StableDiffusionPipelineから呼び出すことに成功した(プロンプトは過去に別のモデルで作ったやつを適当に選んだ)

HuggingFaceから直接持ってこようとしたけど,unet/diffusion_pytorch_model.bin がないとエラーになる(続く)

0 5

Kohyaさん配布のGen img diffusersをV7にアップデートしました。それに伴いpython仮想環境も3.10にアップデートしたのでxformersで高速化できそうです。

0 6

Good night fam. This has been another long and productive day. Tomorrow will be even more fun. Is anyone at all interested in source code for these? It's diffusers + my library that does reinterpretation of the latent space.

3 21

Stable Diffusion 2.1 (base) is also supported by default in Doohickey (and diffusers in general!)

set the model name to "stabilityai/stable-diffusion-2-1-base" and go ham https://t.co/iKHHzpPG0s

1 11