//=time() ?>
AIによるpix2pix。元のヘンテコでチープなイラストでもいい感じにやってくれる。
出力されるたびに、そう!こういうの描きたいの!!!って落ち込む。
毎度のことながら、生成の際のプロンプトは代替テキスト参照…と言いながら自分用のメモでもある。
入力画像を変換するタスクを Diffusion モデルで解く ControlNet についての解説記事を書きました。画像のような線画 -> 着彩のタスク等を解くことができます。
新時代の pix2pix? ControlNet 解説|まっくす https://t.co/IcN6wWHS6y #zenn
InstructPix2Pix試してみました.凄いですね.
画像毎のパラメータの微調整と,オリジナルの特徴の残し方(上だと耳の形状,下だと髪の毛が帽子に特徴として出ている)が気になりますが,それも時間の問題なのでしょう.
Instruct pix2pix用のDeDeDeのチェックポイントを上げました #DeDeDeArt #AIArt
https://t.co/fxZMHZhEH0
Back to my own #AI Here I did alterations of 4, with more and less #pix2pix emphasis and #prompt emphasis
Then made new pix2pix alterations with alot of emphasis on different directions to take the artwork
Tell me which one is your favorite below..
1, 2, 3 or 4 ?
#AIArtwork
https://t.co/vh9Z2JswXp おもしろい!
チャット形式で入れた画像を指示して変えてける
#InstructPix2Pix 使ってるのねw
SDくんで作った失敗作(上)を変えてみた
画質は悪い(自前の環境でip2p調教しないとだね)
https://t.co/5XSIe4Q9tn
Instruct-Pix2Pix試していますが苦戦中。Sampling methodからDDIMが選べなかったので相性を踏まえ昨年9月頃Euler a出力したSD絵を用いて検証。1枚目を元に「Girls' hairband changed to red」や「Background changed to green」を実施。…当面様子見ですね #WaifuDiffusion #AIイラスト
手始めに、Instruct Pix2Pixでimg2imgできるようにしてみた。
一応期待通りに動いてるみたい。ただ、何に使えるのかは不明。
https://t.co/eb81da93jq
prompt = put a pearl earring on her
一枚目: instruct image
二枚目: init image
三枚目: strength 1.0
四枚目: strength 0.5
Instruct Pix2Pix
プロンプトの基本構文をTurn X into Yと考えたときに、普通はYが重要でXはただの代名詞ではないかと思うが、Xもかなり重要っぽい?
一枚目: 3D人形(私がモデリングした)
二枚目: turn 3d doll into cute anime girl
三枚目: turn her into cute anime girl
四枚目: cute anime girl
Instruct Pix2Pixはパラメータに超敏感っぽい
普通の画像生成の感覚でやるとなんもわからん...ってなる
一枚目: オリジナル
二枚目: step 10, image cfg 1.3
三枚目: step 50, image cfg 1.3
四枚目: step 10, image cfg 2
先走ってInstruct Pix2Pix試してみたけど、ヤーバいよこれは。まず1枚目の画像、いい感じだけど昼じゃなくて夜にしたいな~。「Change the background to a night scene」のプロンプトで普通のInP2Pモデルでやったのが2枚目。アニメ系モデルをInP2P変換して試したのが3枚目。仕上げにi2iしたのが4枚目