//=time() ?>
waifu-diffusion 1.3で試したけど、あんまり効かなかったサンプルなのかもだけど、まだ改善の余地はありな感じはする https://t.co/M0ha23lJrA
blenderで作ってもらったADE20Kのカラーで彩色された3Dモデルを、waifu-diffusion v1.3とControlNetのsegmentationで出力を試してみる。普通に使えそう
AIに仕事が奪われると叫ばれている昨今ですが、 #NovelAIDiffusion のtext2imgでは「時津風がアーボックに巻かれる絵」を生成することは現時点では難しそうなので、まあ、今回は人類の勝ちってことで…(ALTにpromptとseed貼ってます)
#NovelAIDiffusion すごいな…別にオタクではなくて単純に技術に興味あるだけですが…メイド服を着たダイワスカーレットが手をハートにしてる照れてる絵描いてほしいって入力して、これが出るのは強い…当方オタクでなくて単純に拡散生成モデルの新しいサービスに興味あるだけなのですが…
これは実際に「いりすちゃん」をデザインしたデザイナーさんが拡散モデルのアウトプットから補正して描いた絵なんだけど、やはり絵が上手い人ほど画像生成モデルをうまく使えると感じる