//=time() ?>
「アニメファン歓喜!SDXLに適切なアニメスタイルをトレーニングするのは驚くほど簡単⁉」
LoHAでたった100枚の画像で新海誠styleが学習できちゃったそう!
「1.5では、5000枚の画像でさえこのスタイルを正確に描写できんくてめちゃ苦労した」
「1.5は二度と使わぬ」ってw
https://t.co/C6HFmxoUgh
Recognize Anything Model (RAM)
画像からの物体認識+ラベリングの強いのきた
Grounded-SAMはセグ化強いがラベル付与に別モデル(Tag2Text)が要る
添付はGrounded-SAM+Tag2Text
#Tag2Text も凄い☺️けど学習したカテしか認識できないのに、RAMはオープンボキャブラリーらしい
https://t.co/97OvCd5v61
SAMのデモ!
https://t.co/pRISgPsC5q
驚きのセグメント検出精度w
SAMベースにしてタグ付け器とか出てきそうね!
ADE20KぐらいラベリングできたらControlNetのsegでも活用できる?
Segment Anything Model (SAM)
facebookresearch/segment-anything
🔧https://t.co/GugAcW8LdX
Kandinsky 2 — multilingual text2image latent diffusion model
🔧https://t.co/ZfBecLNMZe
Dall-E 2と潜在拡散のいいとこ取りしたロシアちっくな名前の多言語対応画像生成の新しいやつ!
デモ🤗https://t.co/rmy2zPAvJa
生成してみた
SD2.1より高FIDだと!?
日本語いけるw
https://t.co/3cTIKfJSxJ
シャーリーとリツはむずいw
リツ「私が何を好むか知りたいの?興味ないでしょう。私自身が他人の好みに興味を持つ訳ないでしょう。」→💔
おこですw
/(^o^)\
ユカちゃんは「🥰: 5」げっと♪
Love Is War 〜○○ちゃんに告らせたい〜
https://t.co/jOPlWbpkHS
cart drivingかわいい❤
ショッピングカートにF1タイヤ🛞履かせてみたw
(cart equipped with F1 tires)
でこんなカートに🛒
https://t.co/azEK5VXJA8
torch2 cu118で
--opt-sdp-no-mem-attention にした
(opt-sdp-attentionはどうも同じ呪文・シードでも何か変わるので嫌)
副効果として、SPDAに移行したらi2iで固まるの治ったw(なぜか…わかってない🤯)
xformersからsdpに変更する方法(より高速になる?)
https://t.co/OXcDU30nRn
アニメ絵はやっぱ弱いね
色々試したけど、初期SDくんを彷彿とさせる低クオリティ
UnCLIPなのでテキスト呪文で補強はできないし…
この子を入力にUnCLIPしてみたけど微妙。リアル系のがいいのかな
↓
https://t.co/oxJvyc1Pzi