//=time() ?>
@kgmkm_mkgm ありがとうございます! 画像はテスト結果です。左側はLatent space up(off)、右側はLatent space up(on)です。 下線はNaiを使った結果です。 baka-diffusionほどではありませんが、かなりディテールに上昇があることが確認できました。
@TDS_95514874 このように、服や背景をAIで生成し、作業するとアセットを見つけてグーグルをする必要がなくなり、作業時間を短縮できると期待されます。ただし、背景色を毎回別々に消去する必要がある点は改善する必要があるようです。
@PinaxPinakes Loopback機能を使用すると、Depth2imgよりは足りませんが、オリジナルイメージの形をある程度維持しながらimg2imgが可能です。🤔
@PinaxPinakes ちょっと違った方法ですが、Inpaintingモデルを使えばベースとなるイメージのスタイルを保った状態で絵の一部を変更することが可能です。 左がオリジナル、右が服装のみ変更したイメージです。
@Rattums1 @wickedinsignia The image that looks like AI/img2img that I've mentioned points to this one. I'm not saying that Araki's work looks like it was made with AI.
@complainin_dude @solarswxtch @LegendaryMantis @wickedinsignia The image that looks like AI/img2img that I've mentioned points to this one. I'm not saying that Araki's work looks like it was made with AI.
@youngtwinkhon @wickedinsignia The image that looks like AI/img2img that I've mentioned points to this one. I'm not saying that Araki's work looks like it was made with AI.