//=time() ?>
混ぜたいシードが決まったらVariant Seedに入力し、Variation Amountで混ぜる強さを決めて、理想に近くなる値を探します。
弱いほど出力はベースに、強いほど混ぜた素材のシードに傾きます。
画像はVariation Amountの値による出力の比較です。
1枚目:0.15
2枚目:0.4
3枚目:0.7
4枚目:0.95
(5/6)
ベースの画像が決まったら混ぜたいシード値を探します。
「シードを混ぜる」とは「ベースと同じprompt・パラメータを使用し、Seedだけを変えた時に出力される画像を混ぜる」と同義です。
今回は、ベースの画像を出力した結果(Batch count:200)の中に、綺麗な顔が出ているシードを見つけました。(3/6)
これはtxt2imgで出力した眠る少女です。綺麗なのですが、どうも顔の部分に違和感があります。
この画像をベースにして、別の「顔の部分が上手く出力されるシード値」から得られる結果を、素材として"混ぜる"ことができるのがVariation機能です。(私の解釈なので、間違ってたらごめんなさい)(2/6)
#stablediffusion のwebuiにあるVariation機能を試してみたので解説します。
これはざっくり言うと、txt2imgで出力した画像(A)をベースに、別のシード値の出力画像(B)を混ぜて新たな出力(C)を得る機能です。
添付の画像1枚目は、2枚目をベースに3枚目の画像を混ぜた物です。使い方はリプに続く(1/6)
使用するサンプラやステップ数を変えると出力が微妙に変化します。
ステップ数は構図の都合上、単に増やせば良くなるとは限らないので、良いシードには色々試すといいと思います
1. k_lms_50(手が破綻)
2. k_euler_50(髪から手が出る)
3. k_euler_65
4. k_euler_250(手が破綻)
#stablediffusion
trinartモデルのお試し
txt2imgからimg2img
プロンプトをそのまま使っても上手くいかなかったので低CFG + k_euler_aでかなり誤魔化す形に。同じワードでも出てくるベクトルが明らかに違うので時間かけてお付き合いしないとダメそうです
#stablediffusion #trinart