Q10. 普段どんな生成をしてる?
TL で拝見した新技術を試しています。使用モデルは SDv2 系への移行を考えつつ、旧モデルも必要に応じて使用しています。

Q11. 生成 AI 初心者にアドバイス!
まずは知ってる言葉を入れて生成ボタンを押してみよう!君の心の中にある世界を教えてね!

0 3

プロンプトは「whiteday」のみという
モデルは SDv2 系の は Replicant-V1.0 配布ページのサンプル作品から借用しました。ホワイトデーを理解していない🤔??(valentine は理解できている模様)

6 28

PVC v3 (SDv2系)でCLIP skip検証
左がCLIP skip 1で右がCLIP skip 10

3と4枚目はWD1.3で同様のCLIP skip

2 5

【#ReplicantV1 を試す】パステル編
自分はローカル移行後、7th、AOM2、pastel-mix を常用して来ましたが、このあたりで SDv2 系に移行しようかと考えています。先日 WD1.5β に触れた際に手応えは感じたのですが、お尻に根っこが生えてしまった感がありましたね😅

9 61

さて、わたくしは今、SDv2のマージモデルをせっせと作っておりますが、MBWのノウハウがないのでプリセットでやんやしております
SDv2まともに触ってないのでプロンプト作成にも苦労しますね
とりあえずWD v1.5 bata or Replicant v1.0 の傾向をつかんでからの方がよかったかもしれません

2 14

SDv2.x系で層別マージ練習中だよ

1 8

WD1.4 AnimeのText Encoderを25% SDv2.1 にしたもの
若干固くなりにくい...かも
https://t.co/KWlX8mPzes

0 3

Waifu Diffusion 1.4 Anime Release Notes
https://t.co/yhvH8WAxh3
SDv2.1 Baseをベースにファインチューニングを行ったStable Diffusion v2モデル
オリジナルソースを提供する画像掲示板を通じてダウンロードされた546万8025点のテキスト画像
クオリティとレーティングのメタデータも追加された。

0 6

Promptで指定していない耳が生えるから、学習はできている(StableDiffusion2でも耳は生えた)。SDv2モデルの学習と取り扱いは難しそうだよ…。

0 2

SDv2.1 is very different then SDv2

2 18

Portal hoping around latent space SDv2

1 8