自作の中世Diffusionがいい感じに育ってる。よいファインチューニングだ。

20 197

AIにミルヒちゃんを描いてもらったよ!ファインチューニングの成果が出てきて、だいぶ再現度が高くなってきた気がする...!


0 4

768x768,2000[step]追加学習後。普通によくなっている・・・。やっぱりファインチューニングの時は小さい画像である程度スタイル学習⇒高解像度画像で高解像度の構図を学習、みたいなのが結構有効なんかな?真面目にやるならSDみたいに256x256から始めるのと学習効率もっといいんだろうな。

0 0

ファインチューニングをテスト中の魔法少女マジカルミルヒちゃん


1 5

でのテスト。
うーん。好み。
ファインチューニングしたNijijourneyが凄いのも分かる。 https://t.co/IqQQVJuudh

0 1

なんと でぎばさちゃんというキャラクターを覚えさせることに成功しました!ファインチューニングというんですよ。違うところもありますが、なかなか特徴を掴んでいます。もっとチューニングを頑張れば良くなりそうです!頑張らねば!ねばぎば!

6 6

waifuDiffusionをファインチューニングした「うずちーDiffusion」を公開します!!
ラーメン食べさせたりコスプレさせたり、ご自由にお使い下さい!
(誰か僕のチャームポイントである角の安定のさせ方教えてくださいw)
(※学習にファンアートは使用しておりません)
https://t.co/zNf0bUau6a

4 15




Google Colab で DreamBoothによるファインチューニングテスト. 学習用画像19枚. えぇ....

0 0

ベースで前やったオグリキャップのファインチューニングをしてるがなんとなく小綺麗だがいまいちオグリキャップ雰囲気が出ないぞ

0 0

試しにウマ娘の画像使ってTextual Inversionでファインチューニングしてみたらなかなか良き

1 8



様々な問題がありますが、学習モデルにファインチューニングをしてみました。
novelAIの出力結果からエルフを学習してもらいました。
AI to AIの学習がもうできるなんて…
エルフの学習ではなく絵柄の学習をしてるので要修正。

2枚目が学習させたもの
※ALT参照

2 12

やはり、VAEっぽいAEをファインチューニングすると、目がはっきり描画されるようになるな

2 11

トークン75個問題、SDで生成した成功画像をテキストのファインチューニングで追加学習することで、画風でつけているテキストを削減できないか模索中。

https://t.co/euu5kkTOnC
https://t.co/FXtKsuusrW

0 2

AIのファインチューニング使って、キャラや衣装の再現を試してみました。モデルはStable Diffusion concepts libraryに登録済みです。
https://t.co/B0hvxsHXM9
https://t.co/6WkImYjsMU

0 2

がうるぐらでファインチューニングされたモデル、無限にがうるぐらが出力できて草生える

0 0

Stable Diffusionのファインチューニングの実験前に、ポケモンで学習してるサンプル試した

・猫耳メイド
・ゴジラ
・ガメラ
・うちの猫

9 26

Stable Diffusion concepts library でファインチューニングしたライブラリの選択に対応しました!添付画像は のアンルシアをファインチューニングで描いたものです
https://t.co/9g8HEbIz4h

5 16

ポケモンでファインチューニングしたSDで描かせた、ポケモンと化した初音ミク  https://t.co/X8zj1oMHa0

0 3

おまけ。日本の家。
現代・21世紀・2010年とか指定しても、こんなかんじになってしまう。日本のイメージが強すぎる。学校とかも。
日本の普通の建築物をファインチューニングしたモデルがあれば解決しそう。

0 3

で作ったがおこちゃんを で衣装テクスチャを作ってポーズを撮らせてキャプチャし、#WaifuDiffusion を俺の絵柄でファインチューニングしてimg2imgでイラストに仕上げた。めっちゃいい感じ!!

2 11