//=time() ?>
「そういやNovelAIがv3にバージョンアップしたとか言うてたな・・・ちょっとさわってみるか・・・ってなんやこれ!」
ってことで、サクッと触ったら、t2iで、これだけそれらしいナディアが描けるってどういうことなんですか!
niji産の画像をT2I-Adapterで二枚目に変換。cannyだと三枚目のように構図が変わってしまう事がある。二枚目を低強度tileして四枚目に。四枚目の背景を生成塗りつぶしで雲と星空を追加、グローブを適当に塗る。最後にもう一度低強度tile
確かWD1.2か1.3使ってた頃だと思うけど、あの時点でt2iとinpaintだけで性癖に忠実であろうとしたのは割と狂気の沙汰だったと思う
#みなさん去年の今頃はどんな絵を生成していましたか
9月頭に描いたととと新絵柄のイラストをLoRA学習してみた結果のt2iです
うん、まあいいんじゃないかな。学習枚数少なくて心配だったけどそれっぽさは出てる
カサコさん(@kasa__ko)とのイラスト合同誌はフロマさんに委託をお願いしております。画像は表紙と全ページサンプルです。興味を持っていただけましたらこちらからお願いいたします🙏#T2感謝祭8_後夜祭
【書店委託】
https://t.co/6uXA7G7jP2
このシリーズ、PNG内の情報を元にt2iしても同じ絵が生成されないので、再現不可なのよね…
初回生成のmodelとHighres.fix、refinerのモデルがそれぞれ違うと思うんだけど、何を使ったかさっぱり分からん。
結構好みだったんだけど、残念。
#AIイラスト #stablediffusion
メイキング紹介 3日目🖌️
1枚目がCN使ってt2iで出した構図重視の画像。破綻だったり余計なものが多いので手直して2枚目。これを可愛く+高画質にするために i2i(SDアップスケール>R-ESRGAN 4x+ Anime6B 強度0.4/ 60ステップ)をかけると3枚目に。最後に瞳や睫など細かいところを描きこんで4枚目。
くくりさん @snow_zakuro の絵を
※ 正 式 な 許 可 を 得 て ※
40枚の画像をLoRA学習させていただきました!
その結果がこちらになります。(シンプルにt2i)
思ったより再現してくれるじゃん……
くくりさんありがとうございました!
やっぱり好きな絵師の学習は楽しすぎるな……w
1枚目から
元線画
t2i-adapter_diffusers_xl_canny [6b0c1490]
sai_xl_canny_256lora [566f20af]
t2i-adapter_xl_canny [ff8b24b1]
おお!?!?
この手法で抽出した大量の線画を元にグレスケ絵を大量に生成することはできるようになった
t2i-adapter_diffusers_xl_canny [6b0c1490]がよさそう https://t.co/jOr0qSuPQW
イラスト出力した後cannyで改めて線画抽出できないかなとという実験
1枚目:元絵
2枚目:controllllite_v01032064e_sdxl_canny_anime [8eef53e1]
3枚目:controllllite_v01032064e_sdxl_canny [3fe2dbce]
4枚目:t2i-adapter_diffusers_xl_canny [6b0c1490]
t2i-adapter_diffusers_xl_cannyが良いか?
まだまだ絵柄とか構図に満足できないけど、
確実に言えるのは「SDXLは剣を持つのが上手い」。
体感でいうとt2i一発生成の半分くらいはしっかり握る。
これだけでもSDXLの価値ある…
#SDXL
BOOTHでコミトレと夏コミのグッズ関係の予備分の販売を開始しました。https://t.co/jEtQGZ1DFO
在庫が少ないアイテムもあるためチェックはお早めに。無くなり次第終了となりますので、ご注意ください。〔T2 ART WORKS〕
1枚目から順番に
t2i-adapter_diffusers_xl_canny(158 MB)
t2i-adapter_xl_canny.safetensors(155MB)
diffusersがついている方が好きかも
次にControlNet。
1枚目:tile にラフ入れて、t2iで生成。
2枚目:tile にラフ、scribble に線画のみを入れた multi ControlNet で、t2iで生成。
3枚目:scribble に線画のみ入れて、雑色指定ラフを 高 Denoising Strength でi2i。
i2iよりはマシになってきた感はある…かな?絵は大分変わるけど。