//=time() ?>
@izumisatoshi05 一応試したらDiffusersベース(clip skipは自前で実装)ではclip skipが効きました。clip skip=1 (clip skip未指定=22層)、10です。
diffusersって2系のtext encoderは最終層が既に切除されてて、自動的にclip skip=2になっていると考えていいんだよね?
このissueは読んだ
https://t.co/YhX7f0fjBG
というか、wd15はほとんどclip skipの違いが出ないのか?
1: clip skip = 1
2: clip skip = 10
おお…なんかDiffusersのリリースノート見てて気になったのを試してたら、うちの12GBしかないVRAMでまさかの1980x1080サイズが生成できた…。
まあ512x512用モデル使ったので絵の完成度はお察しだけど、ある程度タイルパターンで済むような絵になら使えるか…? #stablediffusion
multi-cond guidance is back!
thanks to @cafeai_labs for the hardware.
diffusers-play can now do complex batching.
each sample can have different conditions, varied numbers of conditions, differing negative prompts, differing CFG scales, weighted multi-cond
https://t.co/r85Jc9EpXR
@Vsukiyaki_AIArt Diffusersで使ってみたんですが、モデル以外条件変えずに同じプロンプトでやった結果なぜか左画像みたいな全然アニメ調じゃない奴ばかり出てきました
なんかconfigとかscaling_factorがどうのこうのってメッセージが出てたのでそこら辺が原因かもしれません(一応ALTに載せておきます)
そういや、macOS版Diffusersを入れてみた。
右がDiffusers(左はDrawThings)。Guidance Scaleが無いのと、サンプラーが選べないのと、seedが1000まで&ランダムなので、単純比較できず。
img2imgも無いし、StableDiffusionベースモデル1.4〜2.1だけなのでアプデ次第。
@nakayama_ukgk お世話になっております。
diffusersのunetのconfigのsample_sizeがなぜか32になっており、heightとwidthを指定せずに生成すると、256x256の品質が著しく低い画像になってしまうという問題が確認できました。
一枚目: unetのコンフィグ
二枚目: 256x256
三枚目: 512x512
#Counterfeit2.0 ckptを変換してdiffusersで試してみました!
Anythingv3とは雰囲気がかなり違いますね 体の描写や背景は今までで一番性格かも?webuiじゃないのでアップスケーラー等が使えない分キャラが小さい絵は苦手か(大人しくwebui使えば解決する話)
#AIイラスト #AIart #Stablediffusion
#8528d final,Diffusersで小細工なしでしっかり動いた!!!
しかもかわいい!!!!
プロンプトの中身全然ないけどかわいい!!!!
Running an old "light painting" thru the diffusers sure yields some neat results.
#generativeart #stablediffusion #aiart
オープンソースのDALL-E2(Karlo)が公開され、Diffusersにも搭載された
Karloは、韓国のAI開発組織「カカオブレイン」によってトレーニングされたunCLIPモデル
Model: https://t.co/m2Ht5HHB7h
GitHub: https://t.co/Rrl5bclw5Y
Demo: https://t.co/FMFoFvPp6w
https://t.co/XItLTyNvTO
PyTorch 1.12.1 on Mac:
- diffusers Unet working once again
- k-diffusion DPM-Solver++ (2M) sampler working probably for the first time
this older version of PyTorch has fewer training bugs, so might give us a path to running diffusers fine-tuning on Mac.
結局最後2時間くらいかけて #8528d をdiffusers.StableDiffusionPipelineから呼び出すことに成功した(プロンプトは過去に別のモデルで作ったやつを適当に選んだ)
HuggingFaceから直接持ってこようとしたけど,unet/diffusion_pytorch_model.bin がないとエラーになる(続く)
Kohyaさん配布のGen img diffusersをV7にアップデートしました。それに伴いpython仮想環境も3.10にアップデートしたのでxformersで高速化できそうです。
Good night fam. This has been another long and productive day. Tomorrow will be even more fun. Is anyone at all interested in source code for these? It's @huggingface diffusers + my library that does reinterpretation of the latent space.
Stable Diffusion 2.1 (base) is also supported by default in Doohickey (and diffusers in general!)
set the model name to "stabilityai/stable-diffusion-2-1-base" and go ham https://t.co/iKHHzpPG0s