//=time() ?>
Okay, this is officially the coolest thing I've ever seen controlnet do. First is the source, second is the output, third is the dynamically generated normal the output is based on
i2iのコツが少しつかめたかも。
・元画像も1024x1024くらいの解像度は必要
・ControlNetはCanny + Normal等を組み合わせると構図を維持しやすい
1枚目:最終的な出力(表情は変えた)
2枚目:ほぼ構図が維持できている一覧
3枚目:元画像(Blender)
4枚目:ControlNetで使ったNormal Map(Blender)
i2iでcontrolNET使ったあれこれ直しとか変化とか。あと忘れてたVAEも入れまして。
2枚目から3枚目で胸や背中を直して、4枚目で左手の銃と指。無理がある構図なので仕方ないけど、形を作れるの嬉しいし楽しい
#stablediffusion
SD2.x系のAIモデルにはSD2.x系のControlNetモデルが必要という話、もりそばさんの助言で解決っ!圧倒的感謝!
①②realism engine(CN無⇒有)
③④replicant(CN無⇒有) https://t.co/84MwTznn4A
ただのシード違いだけで色がどんどん変化する不思議な事案。t2iでCanny。それにしてもControlNet、やっぱり凄いな。
#ControlNet #Automatic1111 #AIイラスト #AIart
#stablediffusion #AIart
学習素材次第でまだまだぜんぜん使えそう。ControlNet のおかげで、当時のようなガチャで苦労することも軽減されてるし
RTX3080 TIが二枚になったので負荷試験をしていたら大量に生成されて選抜するのが大変だった。 #stablediffusion #counterfeit #controlnet #AI絵
今日タイムラインで見かけたシュチュエーションをcannyで無理やり再現。
Controlnetの奥は深い。ついでに半裸で定規お腹に当てて自撮りしてる奴はもっと闇が深い。
#AIart #AIイラスト #ControlNet
制作にAIを利用しています
【制作方法】
・スタジオでシーンを作成(1枚目)し、そのシーンをReShadeで深度マップを撮影(2枚目)
・二枚目の深度マップを画像生成AIで利用(ControlNet)し、txt2imgで出力をする(三枚目)
・三枚目の画像のキャラをコイカツのキャラに置き換えて、レタッチ(4枚目)
@claudia42477215 @kortizart @UChicago @ravenben My point is that GLAZE's tech doesn't work.
I didn't make a model and I didn't img2img. Was able to use #ControlNet to make a depth map, a pose model, and a canny.
#AIart tech Move fast. Because of things like #ControlNet and currently available models; tools like Glaze are already outdated. https://t.co/rRvPYL05HG
ControlNetすごいね。1枚目の画像から情報を抽出して、2枚目の画像を生成しちゃうのよ。ポーズって今までは運任せだったから、欲しいポーズを狙い打ちできるのは感動。
✅AIアート日記📔 7日目
今日は昨日の続きです‼️
『Google ColabでControlNetを利用してAIアート』(@knauo2)
➡️色々とプロンプトをあーでもないこーでもない、と何度か生成🥺
いやぁ、難しい💦
AIは手が弱いというのが実感できました🤨
ここから完成度少しずつ上げてくぞ‼️
#stablediffusion