//=time() ?>
縦長画像を作るの楽しいな……二枚目のなんか妙に芸術的。
「はー、かのん先輩のところもそうっすけど、ここもハイカラっすねー。あっ、ほ、本日は誘ってくれて、ありがとうっす!」 #AIArt WD1.3 + #DreamBooth
HypernetworkをつよつよにしてDreamBooth的に使えるようになったので、衣装を学習させれば後付けで着せ替え出来るんじゃね? と思ってやってみたらまあまあできた。 某キャラをDreamBoothしたモデル+HN、trinart characters 19.2m+HN。
Hypernetwork、とりあえずLayerNorm->Linear->ReLU->Linear(チャネル数はNAI版と同じ)にしたらなんとなく表現力が上がった気がする。 学習率5e-6、バッチサイズ12、1000step。ベースはWD13。
学習率5e-6、バッチサイズ12、930step。DreamBoothより弱いけどまずまずでしょうか(・∀・)
某アニメのスタイルで学習率1e-5、バッチサイズ12、1600step学習。Hypernetworkなし、あり。たしかに効いてはいる。 効果が弱めだけどまだ学習が足りないかな。それともこんなものなのか……。
WD v1.3をキャラ名だけのpromptで、Dreamboothで使っているような学習データでfine tuningしたら、目の色に混乱が見られるけど意外に行けた。 そして当然ながら描き分けは出ないのだ……。
キャラをDreamboothするのに、モデルがなんとなく知ってるキャラなら、"sks 1girl"のようにidentifier+classにしなくても、"キャラ名"だけで行けるんじゃね、と思ってやってみたらわりと行けた。 1枚目WD13(promptにdesaturatedが入ってるので白黒に)、2枚目DB、prompt/seed同じ
🔍迷冥探偵ヨハネ(*‘∀‘) #AIArt #Dreambooth
制作過程