//=time() ?>
(238日目)#stablediffusion にお題を描いてもらう習慣ですが、微妙なズレとかいろいろ気になって手を加えてたらまったく別物になった。なるほどこれがimg2imgか(
#一日一作
#illustration
#rkgk
python optimizedSD\optimized_img2img.py --init-img input/test.jpg --prompt "cat,fusion" --H 640 --W 512 --ddim_steps 70 --n_samples 4 --n_iter 3 --strength 0.3
#stabledifussion の#Img2Imgを使って自分の絵(自分の絵は掲載してません)を使って変更
こういうのがいいんですよっていう画像がでてくる...
いやはや
これは漫画制作がはかどる
#stabledifussion #Img2Img
実験二日目。
①幼稚園レベルの元絵。②とりあえずベースの色はそのままに女性に変換。③さらにデティールアップとマンガ要素を加えて具体的に変換。④調整
プロンプト次第である程度好みの感じに持っていけるのがすごい。個人的には③の髪型、目、表情が好みかも。
#stablediffusion #Img2Img
Stable Diffusionのimg2imgでSSをミュシャ風に加工する実験
1枚目が元画像で、生成→明らかにおかしな部分レタッチを3回繰り返して得られたのが4枚目の画像
まだまだ研究と改善の余地ありまくりだけど面白いことができそうな予感
花嫁シリーズその4
←左 : #StableDiffusion の #Img2Img で更に清書(最終形)
→右上: #StableDiffusion の #Img2Img で清書
→右下: その3を加筆修正(髪を伸ばし、輪郭線を加え、背景を緑に)
昨夜の夜間バッチでStable Diffusionが召喚した方。(img2img指示絵とだいぶ違うw) 指示絵の服の色合いは同じで何百枚も見てると、何かのオーディションでもしてる感じになる #stablediffusion
AIに清書してもらうときのコツが掴めてきた!
strengthは0.4~0.5でseed値はランダム、これで20~30パターンくらい試せば、良いのが見つかります。
←左: #stablediffusion の #Img2Img で清書
→右: #stablediffusion の #Text2Img で生成
#stablediffusion のimg2img試してみたけどすごいな。1枚目が入力で、残りが出力。左手が右手だったり勝手に三つ編みになってたりするけど、クオリティやば。
AIは電気百合の夢を見るか…?
Stable diffusionのImg2Img+promptで
出力したもの
(無加工です)
#百合
#stablediffusion
#Img2Img
Google ColabでStable Diffusionのimg2imgを走らせてAIプロンプトを勉強中。目や体が崩れていたりして完璧とは言い難いけど、雰囲気が好きな感じに出来るようになったかも。もっとプロンプトを勉強しなきゃ。絵は描けないしプログラミングもろくにできないけど、何とかなるもんだ。
img2imgでVRChatの写真変換。"Cute avatar girl on pixiv wins the game"でこうなりました。雰囲気が保たれてる。テキスト生成のみと比較して、やや安定しやすいかも