//=time() ?>
ローカルにstable diffusion webuiを構築して、今までとりんさまで作ったエルフさんを学ばせてるんだけど、30枚ぐらいの学習で左の画風が右のに変わるんだから凄いとしか言いようがない。
#AIアート
#RTしたVtuberをAIイラストのt2iで再現する
出来た画像はこのツイートへリプします
@やファンアートタグはつけません
利用の判断はお任せします
StableDiffusionWebUI Nabylon使います
#AIイラスト #Aiart #stablediffusion
NMKDのときはテカテカスキン出せたのに、WEBUIになってから同じプロンプトでも出ない。
NMKD重いからなぁ。
モデルに両方あったら出力用はemaを使うものとばかり思っていたのに、自分で手を加えたらemaは出力が変わってしまい。
間違えて覚えていたのか正しいのか、sd-webui-model-converterに誤りがあるのか正しいのか、よく分からなくなりました。
https://t.co/nIO9bi0MZe
←fp16_noema、fp16_ema→ https://t.co/Rnz6eMSFkj
WebUIのVariationについて
・どんなもの?
元画像を少しだけ変化させて生成出来る
・どんな時に使う?
ある程度理想に近い構図が出たけど、全体の微調整をしたい時(大まかな調整も可)
今回は1枚目を元にvariationをして、2枚目にする工程を解説します(続きはリプで
#AIイラスト #Automatic1111
#StableDifusion WebUI更新したら、X/Y plot が X/Y/Z plotになってて草。3次元の組み合わせきちゃー!
#AIart #AIイラスト
webuiのバージョン上げてから日本語プロンプトからの出力が変わったのか、今までと全然違う意図しない絵がたくさん出てくるようになった。
#AIイラスト #AIart #stablediffusion
昼休みの間にChatGPT先生にお願いして多脚戦車のプロンプト作ってもらいました。
WebUI君はそれを聞いたり聞かなかったりして沢山絵を出力してくれました。
.
多脚か?はともかく、自分で作ったfusion構文よりこっちのほうがカッコいい_(:3」 ∠)_
ずっと定期文ばかり流していましたが
ずっと裏でStable DiffusionのWebUIを導入して
自由にいろんなものを描かせていました。
「AIトレパク」が問題に (1/3)3DアバターのVRMのスクショアプリ「VRM Posing Desktop」を使いVRMで画像(左)を作成後、Stable DiffusionのWebUIでimg2imgを行ってイラスト風の画像… https://t.co/GRD1ElajdM
colabをお借りして、新時代到来!
と言いたいけど、生成してもwebUI上に画像が表示されなくて(画像はColab上のフォルダから直接保存した)、Generateボタンが押せなくなる😭
昔もこの問題にぶち当たってTrinartに変えたんだ…
誰か教えて偉い人
#AIイラスト
webui-pixelization強すぎて震えてる。ドット業務5年以上の経験者だけど、イラストからドットに落とす時これ使ったら製作時間1/3くらいになるんじゃないかな…
1枚目ドット化(大きめ)
2枚目ドット化(小さめ)
3枚目元絵
#AIart #webuiPixelization
ピクセルアート化するwebuiさん拡張w
導入するとExtras tabで #Pixelization 使えるようになる
🔨https://t.co/mUfyEqV5Lg
https://t.co/c0YSV38c0vすると本家Pixelization.gitが
/extensions/stable-diffusion-webui-pixelization/
に入るので、そこのcheckpointsへ3モデルをDLして入れると使える