//=time() ?>
Stable Diffusion の img2img を使えるようにしたので、txt2imgで出力した絵を同じpromptでimg2img再出力、というのをやっている
1枚目がtxt2imgで出したやつ、2~4枚目がimg2img
微妙な違いが面白さを生むなぁ
#stablediffusion
#stablediffusion の #txt2img で画像作って #Img2Img で変換かけていく作業が楽しい。strangeの数字をだんだん減らしていくと少しづつ変わっていく
txt2img から生成した段階のそれぞれの候補です Prompt: "a detailed painting of a kawaii girl by Kyoto Animation, short bob hairstyle, dynamic angle, mid shot, Azur Lane, featured on pixiv, pixiv ranking 1st, highly detailed, official art" seed: 1084, 469, 27, 189
顔が大きめに出るような呪文で txt2img を使って 1200枚生成し、その中から良さそうなものを 20枚ほどピックアップして img2img でそれぞれ 64パターンの調整案を出して厳選してみました #stablediffusion
#stablediffusion #txt2img わかったのは、文が8割&具体的な文が良い/風景はやや得意/目が苦手。100枚生成でやっと数枚「おk」なので万能ではない ↓英語要約
1: xアニ風/かわいい少女/森風景
2: アニメ少女/ゆるxxx風/東京
3: 大量のスコフォ(ネコ)、渋谷で人間どもに抗議
4: 寝る狐/ロンドン冬
7/n #stablediffusion #img2img process:
1⃣ Rough sketch
2⃣ img2img (steps 50, strength 0.45)
3⃣ img2img (steps 120, strength 0.55)
4⃣ txt2img for backdrop
5⃣ img2img (steps 120, strength 0.58) + touch up / paintover
Multiple low strength passes gives control over final image.
高橋さんは、txt2imgよりimg2imgに興味あるのですが、、、
中々良い感じにならない。。。🤔
ちなみに手指いれると大体破綻する👻
左:指示絵
右:img2img絵
#stablediffusion
#stablediffusion 先生に描かせたFateです
python optimizedSD/optimized_txt2img.py --prompt "Fate" --H 768 --W 576 --seed 27 --n_iter 2 --n_samples 10 --ddim_steps 50
5/n Holy crap #stablediffusion #img2img + #txt2img (for backdrop) is incredible! 🤯
Stable Diffusion、M1 Macbook AirでGPU動作できました。txt2imgで3枚画像を出力するのが9分ぐらい。(CPU動作時は60分ぐらい)
早速、夏休みの思い出を捏造してもらいました。