//=time() ?>
Instruct Pix2Pix
プロンプトの基本構文をTurn X into Yと考えたときに、普通はYが重要でXはただの代名詞ではないかと思うが、Xもかなり重要っぽい?
一枚目: 3D人形(私がモデリングした)
二枚目: turn 3d doll into cute anime girl
三枚目: turn her into cute anime girl
四枚目: cute anime girl
@nakayama_ukgk お世話になっております。
diffusersのunetのconfigのsample_sizeがなぜか32になっており、heightとwidthを指定せずに生成すると、256x256の品質が著しく低い画像になってしまうという問題が確認できました。
一枚目: unetのコンフィグ
二枚目: 256x256
三枚目: 512x512
Instruct Pix2Pixはパラメータに超敏感っぽい
普通の画像生成の感覚でやるとなんもわからん...ってなる
一枚目: オリジナル
二枚目: step 10, image cfg 1.3
三枚目: step 50, image cfg 1.3
四枚目: step 10, image cfg 2
Unstable Diffusionは徹底抗戦の構えみたいですね...
「私たちは決して引き下がりません!創造し、革新する権利のために戦うのです!KickStarterの代わりとして、私たちのサイトから直接ドネートできるようにしました!私たちと一緒に戦いましょう!」って言ってる気がする。
https://t.co/UkcUdoH3MR https://t.co/jxAPkBODsY
学習用Cool Japan Diffusion触ってみました。
(自分の理解が正しければ)これはElucidated Imagenに食わせるための"ただの餌"とのことなので、このモデル単体にはあまり期待していなかったのですが、画力はWD1.2と同じくらいかなと思いました。
数億枚規模でゼロから学習されるCJDに期待してます!
waifu1.4の進捗かな?トレーニングの最初期らしい。waifu 1.35かもしれないけどよくわからなかった。
東方Project AI↓
https://t.co/weZ1yMN60Y