//=time() ?>
明けましておめでとうございます。2022年はさっぱり描けなかったので、今年は雑なやつでもよければもっと描くつもり。
このあと随時RT失礼します…!
そいえばこのリディのアイコン、AIが描いたものでタッチがよく似てる(๑•̀∀•́ฅ ✧
別垢 @riddi0908 の投稿と同様に、タグをつけたものはアイコンなど自由に使って頂いて構わないです。 #WaifuDiffusion #DreamBooth #フリーアイコン
@chizutandesu 回答です📝
今回は終始こんな感じ。下描きで形を取れば斜めのままでも一応は。
ツールは動作の軽いSAI Ver.2 https://t.co/DlUDz5CLLB 詳細は別途☺️
ペンタブは7年前のIntuosでMサイズ https://t.co/SbYFWotpXh
アナログはど下手なので全部ペンタブ。
下描きを描かない場合もあります。
↑の条件で、max_train_steps 500~4000の比較です(見切れると思うのでタップ👆)。ここでは載せませんが、生成時のSampling Stepsも少し上げたら、さらに希望の出力に近づきました。 #Dreambooth
↑↑の方法で #WaifuDiffusion wd-v1-2-full-ema に #Dreambooth batch_size=2, learning_rate=1e-6, train_steps=3000 で学習したckptを75%、 #TrinArt v2 step115000を25%に。
今までstepsが足りなすぎたのかも、という雰囲気の出力にようやくなってきましたが、3000は106分かかります…😭
↑の方法で昨日作った、 #WaifuDiffusion 1.3 epoch09 に #Dreambooth で学習を行ったckptを75%、 #TrinArt v2 step115000を25%でマージしたモデル。
その後も色々やっているのですが、今のところはクオリティが低いか、あまり似ないかのどちらかです。背景も変だし。 #StableDiffusion
@kohya_ss RTX 3060でDreamBoothが動作するようになり、大変助かりました。学習は確かにされていますが、思ったほどは似ないので、色々試してみるつもりです。
CUDAは11.7、PyTorchとTorchvisionは11.6、ブラウザなどを開いておく余裕はありました。
モデルを作り直すので、あと少しだけ記念に残しておきます。 #StableDiffusion #WaifuDiffusion #DreamBooth