//=time() ?>
寿司というより、刺身というかタタキというか。
本家に(ry
#AIで晩ご飯再現写真 (いらすとや編)
#AIいらすとや
#aipicasso
よし、(操作方法は)完全に理解した。
次は作り方ですなーって、描くところからだよ!大変だよ!w
元々ベジェ使いだし、下手くそなので筆は遅い。
ていうか、画風に拘るなら自分で作れって話ですよねー。Textual(ry、以降TI)ならSD2系モデル互換で使い回せそうだし。
もうちょい試さないと、効果があるのか文字列として扱われてるのか分からないですねー。
でも、組み合わせ次第では「よくある画風」から脱却できる可能性が…だから自分で作れと。
DrawThingsプリセットのTextural inversionファイルの読み込みが上手く…いったw
プロンプト欄にトリガーワードをコピペできると楽なんだけどなー(文字が小さくて読めないw)。
いくつか試したけど、いつもの画風に足すと混ぜるな危険なものも。ハマると使い勝手が良さそうではある。
何かよー分からんDrawThingsのアプデを試す。
プリセットにあるファイルが落とせないので、適当に探したものでテスト(作者の意図した結果とは異なる気がする)。
左側が通常出力(上がSD2.1、下がCJD2.1-1-1)、右側がTextual inversionを適用したもの。
なるほど分からんw
そういや、macOS版Diffusersを入れてみた。
右がDiffusers(左はDrawThings)。Guidance Scaleが無いのと、サンプラーが選べないのと、seedが1000まで&ランダムなので、単純比較できず。
img2imgも無いし、StableDiffusionベースモデル1.4〜2.1だけなのでアプデ次第。