//=time() ?>
程よく学習されて元のデータとミックスしてくれてはいるけれど画像ではなくてキーワードにつられた学習をしている感じのものがほとんどになる
なんだろうステップ不足かな?
絵柄としては遠いけれど学習の手ごたえとしては一番あるかもしれない
この方法でステップを10倍にするか?
画像をAIさんが自動で生成してくれる
stable diffusion
数か月前に流行って最近はずいぶん落ち着いたみたいね~
結構な割合の人がこんな感じのイラストまでたどり着けなかったり、そもそも実行するところまでたどり着けなかったりしたのではないだろうか?
AIさんが自動でお絵描きをしてくれるstable diffusionはなるほど楽しい
慣れてきたしそろそろ石畳みや和柄、レース等を学ばせてモデリングで使いたいなぁ〜