//=time() ?>
ControlNetの自動着色に指定AIモデルを使えるようになったので検証2。
グレスケ絵だけでなく、線画からも着色できる。凄い。
1枚目 指示絵(nijijourney t2i)
2.3.4枚目ControlNetのCanny。
ControlNetの自動着色に指定AIモデルを使えるようになったので検証。
元絵を残しつつ白黒絵をここまで塗れる。
1枚目 指示絵
2.3.4枚目ControlNetのCanny。
話題のControlNet使ってみました
ボーンから狙ったポーズを簡単に生成できるの凄い
生成内容→prompt+LoRa(アスナ)+ControlNet
話題のControlNetに触れてみました。
左:元画像の以前生成したイラスト
右:左の画像より生成されたイラスト
確かに同じようなポーズになりますね!
凄いなぁ。。
This is a test of "ControlNet".
I was surprised by the results😱
https://t.co/FnnyS9UJRS
sd webui controlnetのポーズの拡張機能、適当に使ってみた。入力画像がしっかりポーズとして認識されるのがムズいのと、出力画像があまり綺麗ではない。軽く触っただけだし、今後改善されていくとは思うけど。もう寝ます😴 #stablediffusion #AIart #aiイラスト
Latent Couple、どうにか今の絵柄の範囲内に寄せてhires2倍に耐えれたので寝る!
今日も有意義だったしがんばったあ💯
まだControlnetは手付かずだし楽しみ💜
明日も明後日も明々後日も楽しみだよ
Good night晩安おやすみみ🌟
WebUIのSD-WebUI-ControlNetについて
・どんなもの?
元画像からボーンや輪郭を認識し、それらを参照してt2iで出力できる
・どんな時に使う?
実写や(AI)イラストなどから、似た構図を出力したい時
今回は1枚目→2枚目にする工程を解説します(リプに続きます
#automatic1111 #AIイラスト #AIart
SD-WebUI-ControlNetのお試し
とりあえずPreprocessorとモデルはopenposeを指定しました
ちなみにt2iでポーズ指定は一切してません
1枚目 :参照元画像
2枚目 :1枚目を元にinputされた画像
3・4枚目:実際に生成出来た画像
#automatic1111 #AIイラスト #AIart