//=time() ?>
#nijijourney の招待を頂いたので、さっそくテスト。
Thx!
引用RTと同じPromptで出力。#midjourny でもかなりいい塩梅になったけど、nijiはよりディティールが出る。
ベースモデルは同じなので、Promptの寄せ方は同じだけど、追加学習の影響で拾ってくれる範囲が広くなった感じ。
#AIart https://t.co/kzhoWb5Hik
#stablediffusion #trinart characters_v1
呪文はaltに記載。
trinart characters v1での出力画像!
まあ、stable diffusionのバニラモデルよりはやっぱりイラストを追加学習しているモデルの方がそういう系のイラストは得意だよね、ということで。
似たような呪文でも、打率が段違いなので…!
夫のアイコンのようなものは描けないのかテスト。
色付き罫線が出せません。
いや、後で加工すりゃいいんだけどね。
AIは私に描けないものを生成してくれるけど、私に描けるものを作ってくれないw(追加学習しろ)
ツルハシのようなものを持ってるこれを及第点とする。
#stablediffusion
@Mega_Gorilla_ 単純な「hand」だけを入力したときに違いを見たとき、Anythingはnaiに比べてクオリティの高いイラスト中心で追加学習になったのではないかと推測します。L:nai,R:Anything
これはWDのDiffuser版を見つけたのでdreamboothで追加学習させて作った「三角令呪を向けられて死ぬほど嫌そうな顔で見下してくれる」ジェネリック利休さんです……
#stablediffusion
#AIart
Dream booth gui使って自分の水彩絵追加学習させてみた
枚数少ないからか参考元画像わかっちゃう感じに出力されるなあ
#stablediffusion #dreambooth
#NarutoDiffusion モデル使ってみたw
ミクさんもNARUTOに🥷
narutopedia画像をBLIPで文字化した"Captioned Naruto dataset"を #StableDiffusion で追加学習
λGPUのA6000 2基で3万step学習
12時間で$20
先にツイしたBLIP化Colabでデータ作れるし
Fine Tuning敷居が下がった?
https://t.co/VXSkIBqgoU
今のところ、手足やバランスがシビアな装飾品は画面外にだす以外の解決策が見つからない。追加学習や創意工夫で突破できるのだろうか。
#NovelAI #StableDiffusion #Midjourney #AIart
あと追加学習モデル、CFG Scale11、Denoising strength:0.5位で効力発揮する。
一枚目:素のwaifu
二枚目:追加学習モデル
三枚目:i2i参照元画像
waifuにdreamboothで追加学習させたモデルでうちの子をi2iで描かせると同一条件でもより詳細に描いてくれる!!!!
1枚目:元画像
2枚目:waifuにi2iで描かせた画像
3枚目:追加学習モデルにi2iで描かせた画像
お絵描きAIに公式小日向ちゃん画像を追加学習したら1回目からめちゃ可愛くてテンション上がってる(プロンプトは"sks 1girl"だけ)
#WaifuDiffusion #Dreambooth