//=time() ?>
#StableDifusion
ほしい雰囲気になるように
生成1回&蒸留7回で調整した
今は頑張っているところを対話的にほしい方向性を指示できるように組みたいな、髪の毛の色は黒で!うーんもうちょっとグレーめでいけるかな?みたいな
一晩放置してたstable diffusion、
簡単なprompt2imgでほしい要素の入った画像を生成して人間がマシなものをpickup、それぞれをimg2promptでmodel側の表現にして再度prompt2imgしたものがこちら。
もとのpromptはチープだったけど再生成することで150~300文字くらいのpromptを生成できてた
厚塗りに親和性の高いようにpromptを調整。
仮説なんですが、彼らはinternet上の動画や画像から学習しているので、イラストに特化させたいなら収集元を突くと良さそう?具体的には皆がUpしがちなソシャゲとか、有名アニメのtitle, pixivなどのサイト名をクエリしてやると誘導してやれる?