//=time() ?>
要素要素をAIで出して雑合成してi2iでどうなるか実験
フォトバッシュの亜種っていうんですかね…?
これフォトショで歪み補正するにしても、やっぱりパースとか光源とかそういう知識は絶対必要だし、やっぱり絵を描く人にどこがおかしいのか違和感に感じるのか批評してもらいたいですね…
forge、CN-Tileの挙動が違うのは解決諦めてパラメータの変更でとりあえず使ってみてる。
←i2i等後 →元t2i画像
素のwebuiでうちのマシンではVRAM不足だった2048x2048のi2i+CN-tile_colorfix+sharpが、tiledなんちゃら無しで通るし早い。この解像度で動くなら素材生成機として使えるかも。
よくわかってないけど、Akumaさんのリアルタイム生成楽しい😇💕
プロンプトも元絵も簡単(girlとかでマウスで適当に)でもちゃんと出てくるし、普段出せないようなAIイラストが出せそう🤔✨
画像読み込み(i2i的な)なのもできるし、作成したAIイラストを元絵にして続きを描くこともできる。… https://t.co/LPpF1ubbPG
1年数ヶ月前に初めてNAIでタンクに人を入れることが出来た(double exposureを使ってようやく成功した)時の絵と、それをi2iで再びNAIで生成した絵がこちら
#NAIDiffusionV3
fanboxでは最大限面倒なケースではこんなようなこともやってました(今やってる絵ですが)
1.変な絵が生成されます
2.キャンパスを横に2倍拡張し、余白を超テキトーに描いて人を出現させる準備をし
3.inpaintします
4.全体をi2iして、なんとなく整合性を取ります。
あとは頑張ってキャラを変えたりします
生成AIのi2iが今どうなっているのか試してみたくて、7年前の自作絵を食わせてみたらこうなりました。「お、おぅ...」って感じです。ちなみにこの手のでは古株のMeituを使っています。(^_^;)
#生成AI
DALL-E 3 → SD1.5(transisterdoll_v10) → Holara AI(Aurora) → NovelAI(NAI Diffuision anime v3)という経路でi2iリレーしてるんですけど,
DALL-E 3→直NovelAIだとうまくいかないです
DALL-E 3とtransisterdoll_v10,transisterdoll_v10とAuroraの相性がいいと勝手に思ってる
年賀状イラストの武器文字。
1枚目をあらかじめ作っておいてi2iでControlnetのsoftedgeをweight0.6、guidance end0.3くらいで設定して、strength0.9くらいで作りました。
楽しかった✨
bing だと重みづけとかネガティブかけれないので、細かいバランス調整や描き込みは加筆してSDでi2i,inpaintしますが、それはケースバイケースで説明不可能なので、置いといて。
もう少し画面をカッチリしたい時は「ステンドグラス」で一部書き換えるといいことも(悪いことも)
(続く)
今週はAI生成についても
色々お話しましたね(ᵔᴥᵔ)
全然まとまってないけどw
正直言って…私には
手順がわかりません(°▽°)難解
i2i?…t2i?…LoRA?…
私の落書きからでも生成出来るのが
i2iになるのかなヽ(´▽`)?
誰か試してみて下さる生成士さんは
居ませんか(^o^)😊
🔽これとか使える?
何げなくミホノブルボンのイラストを散策してたら、2年半?くらい前に描いたイラストとほぼ同じ背景、構図のAIイラスト出てきてクソワロタ...i2i...
マジでこういうのあるんやなって実感した
oh...ってなったわ
なるほどね
NAIv3くんの構図力好きだなぁ。
battle sceneだけで色々出て来るの楽しい。
0anlas生成で十分な解像度だし、無料!
こうやってローカルi2iしてもいいし!
Opusのサブスク費……?
そ、その言葉を口にするな!突撃ィ―!
#AIart
i2iにどこまで反映されるのかやってみたけど、どうやらアンダーバストを腰と認識したらしく、頭身バランスがえらいことになった(´д`;)
クリスタの3D機能と少し仲良くなってきた気がする
#AIArt