//=time() ?>
hypernetworkを用いて絵柄を掛け合わせられないか試しました。4つの絵柄の絵を13、13、5、4枚の計35枚用意して学習率5e-6で12000stepsまで学習。呪文やシード値によっても変わりますが、学習させた各絵柄の特徴が融合している絵が出せている印象です。
#stablediffusion #WaifuDiffusion
AI生成から絵柄を考える第二回はtrinartで作成したこれを使う予定です。線の表現が表に出つつガッシュ的な塗りのタッチがいい感じで残っているのでうまくラーニングしたい。
textual inversionとかプロンプトエンジニアリングとか色々試した結果、私の好みにナイフ投げのナイフくらいは刺さる絵をたまに出してくれるようになったので満を持して参考資料を出力させてる
これを模写してさらに私の好みに近づけるための研究をこれからやる。
#AIart #stablediffusion #Trinart
Trinart v2のプロンプトもだんだん分かってきた。
Anime of 〜にして末尾にEtching とLinocutを入れると私好みの絵になる率が高くなる。
#trinart
とりんさまアートのキャラクター特化モデルを試しました。描画力に関してはまさに圧巻の一言ですが、特化型なので流行りの厚塗り的な絵柄しか描けないっぽいです。絵柄を調整しようと色々試したのですが無理でした。
#trinart
私が雑に描いた下絵からimage2imageを使って画像生成、加筆修正ののち再びimage2imageへ、を繰り返し最終的に私が手直しして作りました。特に顔は全面的に書き直してます。下絵の用意も含めて3時間ちょっとで完成しました。
Dall・e2のOutpainting機能を使ってバストアップしか描いていないキャラの下半身を生成してみました。絵柄が全く追従出来てないの笑う。
#dalle2
Stable diffusion、アニメ調のイラストを出力させる呪文の適当なところに「Linocut art style」や「Etching art style」などの版画技法や「crosshatching」などの線による表現法を入れると私好みの絵が出力されやすいことが分かりました。特にお気に入りの4枚。どれも良すぎる。
#stablediffusion