//=time() ?>
@Yaki_Nama_Shake 1024x1024の同じプロンプト
まあやや崩れがちで、そこは普通にやるときと変わらなそうなので、512x512で出してi2iするほうが良さそう
最近作ったSD1.5モデルが剣持つの下手くそすぎて困ってたけど、ComfyUIでanimagine3.1をSD1.5で自動i2iするワークフロー作って解決!
やっぱり剣持つのはXLが上手だし(animagineならカッコイイ構図もそこそこ出るし)、画風は1.5が好きだし、両立できるのはめちゃくちゃ良い!
獅子と紅蓮
https://t.co/D8v5znGNCn
お気に入りなんだけどモンスターが上手くローカルi2i出来なくて眠ってたイラストをnijijourney部門に投下!✨
あ、投票してもらえると喜びます…(小声)
#AI画像祭
自分絵をAI加工して遊んだぜ!
完全自分絵i2iそして自キャラだから誰も文句言うまいよ!
なかなか好みの感じになりました!
全部設定と呪文同じなんだけど、ルフちゃん(四枚目)だけ不気味になりすぎて爆笑してる。解釈の一致か?
HolaraAI の過去AIイラストをNAIで i2iか、バイブストランスファーしてます🤔✨
色々な変化が起こって楽しいので、昔から大好き🥰🙏✨ https://t.co/vLe466hfJ0
低ステップの方が、柔らかくて自由なAIイラストが出力できる気がしませんか?🤔✨
ただそれだけだと精度に欠けるので、
右側が低ステップで生成したもので、左側がそれをi2iして、ステップを上げて生成したもの🤔💓
路地と自販機と女の子をそれぞれ切り貼りして、一枚に合成、i2iやらinpaintやら使って、最後にフォトショの色調補正してなんとかかんとかでっちあげました
女の子に膝から下はなくともNAIv3inpaintで生やせるんだ
要素要素をAIで出して雑合成してi2iでどうなるか実験
フォトバッシュの亜種っていうんですかね…?
これフォトショで歪み補正するにしても、やっぱりパースとか光源とかそういう知識は絶対必要だし、やっぱり絵を描く人にどこがおかしいのか違和感に感じるのか批評してもらいたいですね…
よくわかってないけど、Akumaさんのリアルタイム生成楽しい😇💕
プロンプトも元絵も簡単(girlとかでマウスで適当に)でもちゃんと出てくるし、普段出せないようなAIイラストが出せそう🤔✨
画像読み込み(i2i的な)なのもできるし、作成したAIイラストを元絵にして続きを描くこともできる。… https://t.co/LPpF1ubbPG
1年数ヶ月前に初めてNAIでタンクに人を入れることが出来た(double exposureを使ってようやく成功した)時の絵と、それをi2iで再びNAIで生成した絵がこちら
#NAIDiffusionV3
fanboxでは最大限面倒なケースではこんなようなこともやってました(今やってる絵ですが)
1.変な絵が生成されます
2.キャンパスを横に2倍拡張し、余白を超テキトーに描いて人を出現させる準備をし
3.inpaintします
4.全体をi2iして、なんとなく整合性を取ります。
あとは頑張ってキャラを変えたりします
DALL-E 3 → SD1.5(transisterdoll_v10) → Holara AI(Aurora) → NovelAI(NAI Diffuision anime v3)という経路でi2iリレーしてるんですけど,
DALL-E 3→直NovelAIだとうまくいかないです
DALL-E 3とtransisterdoll_v10,transisterdoll_v10とAuroraの相性がいいと勝手に思ってる
年賀状イラストの武器文字。
1枚目をあらかじめ作っておいてi2iでControlnetのsoftedgeをweight0.6、guidance end0.3くらいで設定して、strength0.9くらいで作りました。
楽しかった✨
今週はAI生成についても
色々お話しましたね(ᵔᴥᵔ)
全然まとまってないけどw
正直言って…私には
手順がわかりません(°▽°)難解
i2i?…t2i?…LoRA?…
私の落書きからでも生成出来るのが
i2iになるのかなヽ(´▽`)?
誰か試してみて下さる生成士さんは
居ませんか(^o^)😊
🔽これとか使える?