//=time() ?>
苦手な色塗りだけ任せられる説に乗せられて
お勉強がてら触れてみたけど
「表現したい」っておもった元来の欲求を消化できるものでもないからお絵描きって感じじゃなかったw
#stablediffusion
#ControlNet
映画的なショットの時間!
ここでは、「openpose」「depth」「semantic segmentation」を使って、まやちゃんに近づくイレイル(Irei'r)を生成してみた。
#AIArt #AIArtwork #AIイラスト #StableDiffusion #SE_V1_A #ControlNet #LatentCouple
🧵 AI is the future of #fashion.
Enables designers to instantly brainstorm clothes with infinite materials and styles. ControlNet allows for sketch to render.
#Prompts in thread.
#aiart #midjourney #stablediffusion #v5
Rorschach Inkblot Experiment Using Blender and AI #stablediffusion #ControlNet Process as Canny, Scribble, or Depth. Use #ZoeDepth extension.
i2iロンダリングもなんとなくコツがわかってきた
ControlNetで姿勢制御しつつ、小物と細部陰影は加筆が必要な感じ
本来の目的である時短の技術として実用に達するか?
dalcefo_bm9_v3 model.
improved water color effect.
but steel not stable on hands.
If you use this model, you might be need to use controlNet.
https://t.co/8JAA6HW5Ul
ただでさえプロンプトのみだとフレンジェちゃんの服と色が出にくいのに、そこに今朝の娘も足すのはランダム性と色映りが辛い…。
しかし狙って2人並べたら楽しそう。controlNET辺りと併用できそうだけど、ソレやるとグラボの処理限界へ。
後々がんばろう。おやすみなさい!
SD2.1用のControlnetがあったので「untitledReplicant」で試してみました。
たまに指増えちゃうこともあるけど結構精度出る。
なぜこのポーズさせたのか思い出せませんが、かわいいです。突如現れた謎くまさんもかわいいです。
https://t.co/Gi2yMCTHud
#untitledReplicant
Attention Couple+領域別LoRA、一応動くようになった。キャラ3LoRA+画風1LoRA。ControlNetも使える。
ただ、LoRA数とサブプロンプト数は一致する必要がある、positiveとnegativeのトークン数を合わせる必要がある、バッチサイズ1しか動かない、と制約も多い(;・∀・)
「ControlNet」を使うと以下画像のように深度、輪郭線、セグメンテーション、背景などを個別に使って、構図をほぼ完璧にトレースできます。
もし著作権に該当する作品であれば「あなた私の作品でControlnetしましたよね(トレパクしましたよね)」を主張して「似ている」を補強できます。たぶん。
@AI_tadanoB controlNETを使い、デッサンドールとか棒人間でキャラのポーズや位置を調整する事でしょうか。
双方の導入と使い方が分かりやすかった記事がこちら
https://t.co/QdFyYJAlWf
自分のはキャラメインですが、こんな感じで補正がかかり酷く崩す事もあるけど生成枚数でカバーです