Izumi Satoshiさんのプロフィール画像

Izumi Satoshiさんのイラストまとめ


余生を満喫します。
github: github.com/IzumiSatoshi
pixiv.net/users/79900733

フォロー数:478 フォロワー数:2013

diffusersって2系のtext encoderは最終層が既に切除されてて、自動的にclip skip=2になっていると考えていいんだよね?
このissueは読んだ
https://t.co/YhX7f0fjBG

というか、wd15はほとんどclip skipの違いが出ないのか?
1: clip skip = 1
2: clip skip = 10

2 15

横から見るとこんな感じだけど、表面さえ整ってれば空間を感じるんだなぁと

0 7

むー、dedede pipelineのunetとvaeをControlNetPipelineに入れてみたんだけど、なんか品質が低い。
やってることはMikubillさんの実装と同じはずなんだけど...
よくわからんから一旦棚に上げるぜ!

1 6

ControlNet Normal map
midasの深度推定から算出してるらしい
意外といいかも

3 5

canny2imgだと毛束レベルで線画を守ってくれる
こっちのほうがやりたいことに近いかな

6 27

昔作った手描きのアニメーションにControlNetのscribble2imgで着色してみた。
モデルはdedede
頑張れば頑張れそう!

53 305

ControlNetのscribble2imgで、scribbleとして渡す線画とは別に、下塗り済みの絵を初期ノイズとしてimg2imgに渡すと、線画を守らせたまま色もコントロールできることが分かった。
いいっすね
一枚目: 線画
二枚目: 下塗り
三枚目: 通常のs2i
四枚目: s2i + i2i

23 89

あと、フレーム間の初期ノイズを統一するオプションもつけてみた
口開きっぱなしかわいい

0 1

スパファ口パクgifでチューンしたTAVモデルでv2vしたらいい感じになった
やはり、特定の動画で過学習させる方向ではなく、時間に対する一般的な知識を身に着けてもらうほうが良さそう
過学習させると絵柄の幅がほぼゼロになってしまい、やりたいことが出来ない
More-Shotの学習コード書くぜ!

2 18

手始めに、Instruct Pix2Pixでimg2imgできるようにしてみた。
一応期待通りに動いてるみたい。ただ、何に使えるのかは不明。
https://t.co/eb81da93jq
prompt = put a pearl earring on her
一枚目: instruct image
二枚目: init image
三枚目: strength 1.0
四枚目: strength 0.5

2 6