//=time() ?>
正解!このWebui拡張機能でカップルが作れる!
(*ローカルでの改造必要)
#AIArt #AIArtwork #AIイラスト #StableDiffusion #DefmixV1
精密画CFGスケール別hires fix2倍耐久テスト
1枚目:いつも使ってる5(開幕でねこみみ死亡
2枚目:WebUIのデフォルト7(ねこみみ生存
3枚目:NovelAIのデフォルト11(すごい強そう!
4枚目:絵としてどうにか耐えた2(全体的にすぐ死にそうだけどすき
#webbyvanderquack #ducktalesfanart #ducktales #stableDiffusion #AIArtwork
I made Webby Vanderquack AiArts with webUI! You can download LoRa File in huggingface (Just search Webby_Vanderquack)
「WebUIには〝hires.fix〟というi2iしてくれるUpscalerがある」という情報だけをヒントに、同じことをNMKDで再現しようとするテスト。
①t2iで作った画像
②これ(↑)を元にサイズを倍にしてi2i。
③Initiallization Image Strength 0.9
④Initiallization Image Strength 0.1
#AIart #StableDiffusiton
ルイズコピペの英訳をwebuiにつっこんだ
萌絵を生成しうることが判明しましたw
クンカクンカが、sniff sniffという無駄知識もふえた
ドット化が刺さる絵柄だったので。 (AI-generated / pixel-art converted by "stable-diffusion-webui-pixelization")
ローカルにstable diffusion webuiを構築して、今までとりんさまで作ったエルフさんを学ばせてるんだけど、30枚ぐらいの学習で左の画風が右のに変わるんだから凄いとしか言いようがない。
#AIアート
#RTしたVtuberをAIイラストのt2iで再現する
出来た画像はこのツイートへリプします
@やファンアートタグはつけません
利用の判断はお任せします
StableDiffusionWebUI Nabylon使います
#AIイラスト #Aiart #stablediffusion
NMKDのときはテカテカスキン出せたのに、WEBUIになってから同じプロンプトでも出ない。
NMKD重いからなぁ。
モデルに両方あったら出力用はemaを使うものとばかり思っていたのに、自分で手を加えたらemaは出力が変わってしまい。
間違えて覚えていたのか正しいのか、sd-webui-model-converterに誤りがあるのか正しいのか、よく分からなくなりました。
https://t.co/nIO9bi0MZe
←fp16_noema、fp16_ema→ https://t.co/Rnz6eMSFkj
WebUIのVariationについて
・どんなもの?
元画像を少しだけ変化させて生成出来る
・どんな時に使う?
ある程度理想に近い構図が出たけど、全体の微調整をしたい時(大まかな調整も可)
今回は1枚目を元にvariationをして、2枚目にする工程を解説します(続きはリプで
#AIイラスト #Automatic1111
#StableDifusion WebUI更新したら、X/Y plot が X/Y/Z plotになってて草。3次元の組み合わせきちゃー!
#AIart #AIイラスト