//=time() ?>
txt2imgで偶然引けた良いシードをさらに良くするための手法を色々考えてたんですが、自分で少し改造してVariationからガチャを引ける環境を構築できたので満足です。txt2imgの生成だけで完結しているのでとても安定する。
元々は意図的にできなくされてるっぽいんですが、理由はよくわかりません……
今日もそこそこいい感じに生成できた気がする!
※具体的な作者さんや企業、キャラクターや作品の名前を使わない汎用プロンプトからの生成(txt2img)&無加工です。
#stablediffusion
#StableDiffusionkawaii
これはtxt2imgで出力した眠る少女です。綺麗なのですが、どうも顔の部分に違和感があります。
この画像をベースにして、別の「顔の部分が上手く出力されるシード値」から得られる結果を、素材として"混ぜる"ことができるのがVariation機能です。(私の解釈なので、間違ってたらごめんなさい)(2/6)
#stablediffusion のwebuiにあるVariation機能を試してみたので解説します。
これはざっくり言うと、txt2imgで出力した画像(A)をベースに、別のシード値の出力画像(B)を混ぜて新たな出力(C)を得る機能です。
添付の画像1枚目は、2枚目をベースに3枚目の画像を混ぜた物です。使い方はリプに続く(1/6)
当然なんですがpromptで服装をかえると服装のイメージで顔や背景まで変わってきてしまいますね。
将来的にはマスクありのimg2imgで変えたい場所だけ変えるようになりそう。
promptでのtxt2imgでのkawaii作成限界ですかね。
そろそろモデルをちゃんといじらないと次のkawaiiにはたどり着けなさそう
結局手については、https://t.co/POfhNqHzP4 のやり方を参考に、元画像をimg2imgで2~300回ガチャしてその中からマシな手を採用、レイヤー重ねて不要部分を消す、という方法でやった
img2imgって割と早い(同じサイズでtxt2imgが10秒のところを3秒で出せる)ので候補は高速で出せる、けど選ぶのが面倒
Stable diffusion、具体的な作家さんやキャラクター・作品の名前を使わない文章からの生成(txt2img)でも、それなりにKawaiiな感じの画像が出せて嬉しい😌(無加工です)
#stablediffusion
#StableDiffusionkawaii
trinartモデルのお試し
txt2imgからimg2img
プロンプトをそのまま使っても上手くいかなかったので低CFG + k_euler_aでかなり誤魔化す形に。同じワードでも出てくるベクトルが明らかに違うので時間かけてお付き合いしないとダメそうです
#stablediffusion #trinart
うちのラスクちゃんをAIにイラスト化してもらった様子。strength値を変えて左上から右に向かって順に0.5、0.6、0.7、0.8、下段左から0.9、0.99、txt2img(画像を与えていない状態)、本人(与えた画像)
#VRChat
#stablediffusion
クソデカ女騎士キャラのデザインのAIに丸投げするマン
(とりんさま公開モデル使用のtxt2img)
絵柄指定系の単語入れなくてもそれっぽい感じに出力できて強い
だいぶ動くけどところどころエラーがわかんない。「txt2img」と「img2img」の処理混ぜてるのがよくないんかな?明日は分けてみませう、画像自体は苦労してるだけの甲斐があるわりといい感じ。 #StableDiffusion
構図と色味を固定できるのは安心感がある。
txt2imgより生成が早いけど、コストは変わらないのか、すぐ使用制限が#stableDifusion #Img2Img
#stablediffusion CC0のMatCap(https://t.co/hv4cmqnz7C)から別のMatCapを生成する。txt2imgではmatcapを認識してくれなかった。一枚目(22)がベース。呪文はMatCap, black_background, glittering gold, jewelry, glass。--strength 0.7。シンプルに美しい。
#stablediffusion で kawaii, anime が効果があると聞き、自分のアイコンから img2img したら眼鏡と髭が消えたw
ちなみに txt2img で、画像なしで kawaii, anime だと比較的賑やかな画像が出てくる。
1 枚目:txt2img で kawaii, anime
2 枚目:3 枚目の画像+kawaii, anime
3 枚目:2 枚目の入力画像