//=time() ?>
img2imgで色々パラメータ変えながら生成してた。
guidance_scaleは全て0.88
num_inference_stepsが順に80,90,100,120
なぜか80と120が似てて、90と100が似てるという不思議な結果に
#stablediffusion
取り急ぎ男子アバター作ってみた。ついにバーチャル少年受肉できるー!
細かくパラメーター調節できて、少年から成人男性まで自在につくれてすごい!
#MakeAvatar
#ロスフラ
アマちゃんとウルサラを★5に〜
水の遺跡41、あと2体・・・もう少しだけどパラメータが足りないかな( ˘ω˘ ) 40は楽に行けるのに。
あとアマちゃんの連撃の声聞いてると眠たくなる〜バタッ
#stablediffusion
既存の風景+アバターのCGをimg2imgに掛けたらどうなるのかのお試し!
①元のCG(エルフ島桜色にVRoid版Muaccaさんを雑に合成したもの)
②~④ある呪文とパラメータで50枚画像生成したモノからマシなものをチョイス
アバターの描写は崩れやすいらしくてなかなか難しい…!
#stablediffusion
既存の風景CGをimg2imgに掛けたらどうなるのかのお試し!
①元のCG(エルフ島、桜色)
②~④適当にパラメータ変えながら何回かimg2imgを繰り返すと、別の風景に変化したり…!
さて、アクセサリーの物理演算というよりもパラメーターの紐付けはできるもの、いざ体の傾きに連動させようとするとペンダントがぐっちゃぐちゃになったり、紐が意図しない所にいったりやそこに紐入ってはいけないなどトラブル続きで、結局体の傾きに追従する感じ作ってみました。今の僕の精一杯
#stablediffusion
いままで気にしてなかったんですが呪文の再現度パラメータ(V Scale, Guidance Scale)とか画像サイズ変えると絵が変わりますね…!?
①VScale15、②VScale20、③VScale2.5、③VScaleは8のままで画像サイズを640pxに
プロンプト他、全パラメータを添付しましたので完全再現可能です。スケールはデフォルトでもイケると思います。
ステップ数がデフォルトの50より少なめなのは、画像を少しでも高速に生成するため。実際、30で充分なケースが多いのです。
@Whompzt ここ
https://t.co/avK0V2Kguo
とここ
https://t.co/cuyMGpyBQ0
のとおりにやりました!あとは自機のねんどろっぽい絵を描いて読み込ませて、少しずつパラメータを上下して狙った画像を出させる感じ・・・🦾
元の絵を変えて,同じパラメータで出力した例がこちら.なぜかリアル調に.
まあ,なんというか使い方間違えてるだろ案件ですが,よく分かってない人が使ってもこんなもんしかでないですよ〜と.私は頑張って自分で描きます.最近は全然描いてないで,ガンプラに逃避してますが.
もうちょっと遊んでみました.キーワードは
ironsaga arashi ninja girl "cat ear" brown leggings shortcut "silver hair" cute
でStrengthを0.6で.
この絵からはアニメ顔っぽくなりました.
で,パラメータ同じで,これのラフからを次のツイートで
なーんかKritaのプラグインでimg2imgかけると https://t.co/1NollFFWR8 を直接叩いたときと比べて画風が違うぞ…? と思ったら、SamplerをDDIMにしたらかつての画伯の画風が蘇った なるほどー、しかしsamplerってなんだ??? またなんか未知のパラメータが出てきたな…
#stablediffusion
ERNIE-ViLGのプロンプト入力で、日本語も英語もイケるのか!
中>英>日で劣ってく感
裏でBaiduの機械翻訳挟んでるん?学習データのWenxinには多言語もあるんだっけ?もし、多言語テキスト対応で学習してたら凄いね
1兆7500億パラメータの悟道2.0は画像テキストもやってくるのかな?
#ERNIEViLG