//=time() ?>
実はi2i使ったことない。
だから分からないのです。
いまは下記の流れで作っています。
1.事前処理/下書き(クリスタ)
2.CNTで下書きを読み込んでt2i(SD)
3.Lama Cleaner
4.事後処理/加筆修正(クリスタ)
fanboxでは最大限面倒なケースではこんなようなこともやってました(今やってる絵ですが)
1.変な絵が生成されます
2.キャンパスを横に2倍拡張し、余白を超テキトーに描いて人を出現させる準備をし
3.inpaintします
4.全体をi2iして、なんとなく整合性を取ります。
あとは頑張ってキャラを変えたりします
生成AIのi2iが今どうなっているのか試してみたくて、7年前の自作絵を食わせてみたらこうなりました。「お、おぅ...」って感じです。ちなみにこの手のでは古株のMeituを使っています。(^_^;)
#生成AI
DALL-E 3 → SD1.5(transisterdoll_v10) → Holara AI(Aurora) → NovelAI(NAI Diffuision anime v3)という経路でi2iリレーしてるんですけど,
DALL-E 3→直NovelAIだとうまくいかないです
DALL-E 3とtransisterdoll_v10,transisterdoll_v10とAuroraの相性がいいと勝手に思ってる
年賀状イラストの武器文字。
1枚目をあらかじめ作っておいてi2iでControlnetのsoftedgeをweight0.6、guidance end0.3くらいで設定して、strength0.9くらいで作りました。
楽しかった✨
bing だと重みづけとかネガティブかけれないので、細かいバランス調整や描き込みは加筆してSDでi2i,inpaintしますが、それはケースバイケースで説明不可能なので、置いといて。
もう少し画面をカッチリしたい時は「ステンドグラス」で一部書き換えるといいことも(悪いことも)
(続く)
今週はAI生成についても
色々お話しましたね(ᵔᴥᵔ)
全然まとまってないけどw
正直言って…私には
手順がわかりません(°▽°)難解
i2i?…t2i?…LoRA?…
私の落書きからでも生成出来るのが
i2iになるのかなヽ(´▽`)?
誰か試してみて下さる生成士さんは
居ませんか(^o^)😊
🔽これとか使える?
何げなくミホノブルボンのイラストを散策してたら、2年半?くらい前に描いたイラストとほぼ同じ背景、構図のAIイラスト出てきてクソワロタ...i2i...
マジでこういうのあるんやなって実感した
oh...ってなったわ
なるほどね
やっぱ表情はAdetailerで変えるのが楽でいいですね。
ただの顔だけinpaintなので、手動でi2iする手間を惜しまなければ、そうすればいいだけですが。
家事と同じでなるべく楽を求めるw
ぽんだし部は事後処理に手間をかけないことが、大事なのだ!
#AIぽんだし部
NAIv3くんの構図力好きだなぁ。
battle sceneだけで色々出て来るの楽しい。
0anlas生成で十分な解像度だし、無料!
こうやってローカルi2iしてもいいし!
Opusのサブスク費……?
そ、その言葉を口にするな!突撃ィ―!
#AIart
i2iにどこまで反映されるのかやってみたけど、どうやらアンダーバストを腰と認識したらしく、頭身バランスがえらいことになった(´д`;)
クリスタの3D機能と少し仲良くなってきた気がする
#AIArt