Okay, this is officially the coolest thing I've ever seen controlnet do. First is the source, second is the output, third is the dynamically generated normal the output is based on

0 7

ControlNet使いましょう!
(上手く出るとは言ってない)

0 6

i2iのコツが少しつかめたかも。
・元画像も1024x1024くらいの解像度は必要
・ControlNetはCanny + Normal等を組み合わせると構図を維持しやすい

1枚目:最終的な出力(表情は変えた)
2枚目:ほぼ構図が維持できている一覧
3枚目:元画像(Blender)
4枚目:ControlNetで使ったNormal Map(Blender)

0 0

i2iでcontrolNET使ったあれこれ直しとか変化とか。あと忘れてたVAEも入れまして。
2枚目から3枚目で胸や背中を直して、4枚目で左手の銃と指。無理がある構図なので仕方ないけど、形を作れるの嬉しいし楽しい

1 13

controlnetのnormalmapで縦横比が生成パラメータと違う画像を使うと、窓や隙間から覗いてるような構図やウォータマークを入れるスペースが作れるかもしれない。ちょっと発見。

0 2


SD2.x系のAIモデルにはSD2.x系のControlNetモデルが必要という話、もりそばさんの助言で解決っ!圧倒的感謝!

①②realism engine(CN無⇒有)
③④replicant(CN無⇒有) https://t.co/84MwTznn4A

0 5

ただのシード違いだけで色がどんどん変化する不思議な事案。t2iでCanny。それにしてもControlNet、やっぱり凄いな。

1 2


学習素材次第でまだまだぜんぜん使えそう。ControlNet のおかげで、当時のようなガチャで苦労することも軽減されてるし

1 2

RTX3080 TIが二枚になったので負荷試験をしていたら大量に生成されて選抜するのが大変だった。

0 1

今日タイムラインで見かけたシュチュエーションをcannyで無理やり再現。

Controlnetの奥は深い。ついでに半裸で定規お腹に当てて自撮りしてる奴はもっと闇が深い。

1 5

制作にAIを利用しています
【制作方法】
・スタジオでシーンを作成(1枚目)し、そのシーンをReShadeで深度マップを撮影(2枚目)
・二枚目の深度マップを画像生成AIで利用(ControlNet)し、txt2imgで出力をする(三枚目)
・三枚目の画像のキャラをコイカツのキャラに置き換えて、レタッチ(4枚目)

0 0

My point is that GLAZE's tech doesn't work.

I didn't make a model and I didn't img2img. Was able to use to make a depth map, a pose model, and a canny.

0 5

tech Move fast. Because of things like and currently available models; tools like Glaze are already outdated. https://t.co/rRvPYL05HG

8 19

帰り道。ControlNet のおかげ

0 1

ControlNetさん導入できたからCannyってみた。
もっとグラボの性能高ければ線画からやらせられるんだけど…。

1 10

ControlNetすごいね。1枚目の画像から情報を抽出して、2枚目の画像を生成しちゃうのよ。ポーズって今までは運任せだったから、欲しいポーズを狙い打ちできるのは感動。

0 8

✅AIアート日記📔 7日目

今日は昨日の続きです‼️
『Google ColabでControlNetを利用してAIアート』()

➡️色々とプロンプトをあーでもないこーでもない、と何度か生成🥺

いやぁ、難しい💦
AIは手が弱いというのが実感できました🤨

ここから完成度少しずつ上げてくぞ‼️

1 4