コメント/適当に書き込む所
Last-modified: 2023-03-21 (火) 11:13:39
適当に書き込む所
- >X/YのInclude Separate Imagesって何…?結果表示の時にグリッドだけじゃなくて個別に各画像も表示させるかどうか --
- さっぱり詳しくないのだがTIの方は活性化関数のせられないのかな --
- >Draw legendとか切ったことないから推定だけどX/Yしたときの比較画像に入ってるパラメータと値の説明書きを入れる/入れないだと思うよCFG scale = 12.5とかね切ると生成した画像だけがグリッドになって出てくると思う --
- >UPscaleって設定どれがいいの?>waifu2xと比べてどっちがいい?性能面ならBSRGAN>ESRGAN>SwinIRただその分メモリも馬鹿食いするので実用面ではその逆でも正直それに拘らずReal-ESRGAN-GUIって外部のツール使った方がいいと思うよ --
- >waifu2xとかBSRGANは線とかを区別してきれいに拡大してくれるからLanczoとかよりも優秀ではあるけど>AIの拡大っていうのは拡大した後にさらにAIで塗り直すのよ>瞳を拡大したらちゃんと瞳を新しく描いてくれるわけです>その度合をdenoising strengthで決められるんだけど>製作者の推奨は0.2ですなるほどありがとう!めっちゃ参考になります! --
- 画像がエモくなる系ワード教えて欲しいbacklightとsunsetは良かった --
- >生成画像がたまに黒塗りになるんだけどこれってAI側うまく生成できてない?どれで生成した画像かは知らんけど俺はnegativeにpitch blackって入れたら出力されなくなった --
- >>ちなみにdenoising strengthってのはどこにありますか?>多分自己解決しました。IMG2IMGで描かせるってことか!img2imgに絵をつっこんで下のscriptからupscaleを選んでBSRGANとか入れてればそれを選ぶ(入れてなければLanczosとかで)それでdenoisingを0.2くらい --
- >>>ちなみにdenoising strengthってのはどこにありますか?>>多分自己解決しました。IMG2IMGで描かせるってことか!>img2imgに絵をつっこんで下のscriptからupscaleを選んで>BSRGANとか入れてればそれを選ぶ(入れてなければLanczosとかで)>それでdenoisingを0.2くらいなるほど!スクリプト使うのか!ありがとう神よ! --
- >画像がエモくなる系ワード教えて欲しい>backlightとsunsetは良かったdusk twilight light_particles embers --
- >大分前にトレーニングラボでぽっかりアナルDB配布されてなかったっけ向こう産だから大味かもねhttps://rentry.org/gapemodel
--
- >TIで触手!ぶっかけ!汁大量!みたいな特徴を学習させる場合もやっぱり画風は揃えないと良い結果は得られないよね?画風ならHNだけど触手だと細かいものも学習させたいしメモリー負荷増えたから3090購入買っちゃえになる --
- https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2401長い呪文は75トークンずつ処理されてるって今知ったわ知ったところで呪文や設定をどうしたらいいのか俺にはわからないが
… --
- ANDはseed固定してそれぞれの出力結果をあらかじめ知ったうえで混ざるといいと思った --
- AND (Composable-Diffusion) の解説はここhttps://energy-based-model.github.io/Compositional-Visual-Generation-with-Composable-Diffusion-Models/推奨される使い方としては背景AND人物みたいな感じ
--
- >境目のトークンは引き裂かれて機能しなくなるから75トークン付近まで来たらカンマとかで一度埋めるといいのかなそれを防ぐ機能があるよって話でしょ72,(73 74 75 76),77みたいなprompt区切りのときに72,(73 74 75 & 76),77みたいな分割区切りをしないように72,埋 埋 埋 & (73 74 75 76),77と最後のカンマの後を埋めて(padding)調整してくれる機能があってその際に75から遡って一番近いカンマをどこまで(prompt何個分まで)遡るかがIncrease coherency by padding from the last comma within n tokens when using more than 75 tokensの数値ってことなんじゃないかな --
- AND は人物や背景のプロンプトがお互いに混ざるのを予防してくれる感じ特に色や画風指定とかが混ざりにくくなる --
- AND使う時ってoil paintingみたいな画風指定を全体に賭けようと思ったらANDまたぐたびに入れ直した方がよいの? --
- >二人分の要素が一人に集約されてるのかこれ?そう一人分の要素を一気に書き上げる必要がある時に使う女の子にさせたいのに男役が行動するって時に女の子の要素を一気に{}もしくは()内でandで区切って書き上げる --
- Waifu1.3対応の呪文サイトを見つけたhttps://dskjal.com/others/waifu-diffusion-workflow.html#enum-danbooru-tag-v1.3
--
- >AND使う時ってoil paintingみたいな画風指定を全体に賭けようと思ったらANDまたぐたびに入れ直した方がよいの?全体的な構図は入れた方がいいかしれない --
- >要素を一気に{}もしくは()内でandで区切って書き上げる分離したい要素ごとにカッコで括ってand指定すればいいのかなるほど --
- >ありがとう>この機能は何のためにあるのってディスカッションでそれに対する解説のリンクだったのか>問題に対する対策は既に済んでいてユーザーサイドでなにかする必要は無いわけだねこの機能はあれじゃなかったっけ…過去の75トークン時代の呪文との互換性担保のためだって聞いたことある --
- >無限にオカズを生み出すガチャって脳の仕組み的にはかなり依存症の原因になりそうよねボタンを押すとバナナが出てくる装置のボタンを押す猿だよねソシャゲは金銭的限界があるけどAIガチャは存在しないので理想のバナナ出すための中毒になりそうウキー!! --
- いもげいもげ>NAIくんには関係ないこと?img2img、ラフ画像とかある画像から別の画像をAI生成させる機能NovelAIにもUpload imageってボタンがあると思うけどその機能 --
- >質問なんですがNAIで髪の色2色にするってできます?>黒髪で部分的に白くするとか某所で見かけただけで自分じゃやってないが「{{{gradation hair}}}, 髪の色 hair,別の髪の色 hair,…」で4,5色ぐらいまではでるとかでも場所まで指定できるとは書いてなかったな --
- >試しに難しい髪色であろう東方の聖白蓮を指定したけど衣装までついてくるから難しい>とりあえず島風の服を着せるも元衣装が残ってしまってこれはこれでナイスデザインにキャラ名+Hair colorでできるかもHijiri byakuren Hair color,Shimakaze Costume,{{{rice_shower_(umamusume)}}}で聖白蓮の髪色をして島風の服を着たライスシャワーが出来たが何故かシャワー室ばかり出てくる --
- >PNG infoからtext2imgに送る時にシード値やチェックポイントも変更されるの選択性になってくれねえかなあ>前使ったプロンプト使い回す時に大体使ってるからhttps://rentry.co/u5thwPNG
infoにシードとモデルを除外できるチェックボックスを追加するパッチを作ってみたどんどん更新されてるからこれがいつまで使えるは分からない --
- >それとも全身図でこれを身に着けている写真の方がいいんだろうか?できるだけ覚えさせたい特徴の画像を用意してその特徴以外はバラバラな奴がいい全部背景白かったりすると背景が白いってことまで特徴として学習しちゃう>全部背景白かったりすると背景が白いってことまで特徴として学習しちゃう背景白抜きにしてwhite backgroundを指名除外してちょっとチャレンジしてみる一晩あれば雰囲気だけでも掴めると期待して --
- >顔やポーズはそのままに髪型や衣装だけ、あるいはその逆の変更ができるようになるのはまだか…AUTOMATIC1111ならプロンプトエディティングで途中から変えるといいよ --
- >TextEncoder学習対象とするやつって無料colabでも動くの?>VRAM16GBだとできないって思ってた実際ちゃんと反映されてるかはよくわかってないんだがたぶん出来てるはずちなみにここに書かれてたやり方でやってるhttps://note.com/kohya_ss/n/n88f1c8ab7883
--
- >これはパーツごとにはちゃんと変わってるんだが顔の角度が大体同じだったやつ難しい事は知らんし単なるやった上での感想だけどDBって生成ステップごとに覚えさせた絵をうっすらimg2imgするイメージな気がするプロンプトで生成された物とうっすら重ねた絵の共通点が多い場合実体化していく学習によってプロンプトで生成される物も学習した絵に近づいているので重なりやすくなっている感じ例えば顔で学習する絵の角度が少ないと重なるのが1つしか無くて同じ角度ばかりになる枚数が多いとその辺はある程度緩和されるゆるく学習させるとうっすら重ねる絵がものすごくうっすらになるので顔の角度なんかはプロンプトに追従するようになるけど似ないという欠点が出てくる過学習させると同じ絵ばかり出すようになるけどプロンプトを多くしたりCFG Scaleを下げると学習の効力が薄まってだいぶまともな絵を出したりする個人的には枚数を沢山でやや過学習気味にして数値とプロンプトで調整する方向でやっている --
- たておつDeepdanbooruで自動生成したタグからTIで覚えさせたいタグを削除するツールできたhttp://tajiken.org/uploader51/upload.cgi?get=00058
--
- HNのガイドとかいうのがあったけどここだと一応VAEはオンにすると書いてあるもう何も分からないhttps://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670
--
- >https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670
>Train in 512x512, anything else can add distortion>I've tested this several times. I haven't gotten good results out of it yet. So up to you.やっぱりそうか……そうかなとは思ってたんだけど --
- >たておつ>layer structure「1,2,4,2,1」とlayer normalizationしたら心なしか過学習が抑制された気がしないでもないhttps://zenn.dev/discus0434/articles/14e1d7c9baf8b5説明貼っとく
、なおワイは1ミリも理解していない --
- 469無念Nameとしあき22/10/23(日)02:03:00 ID:1UFKTPT6No.1027318916No.1027318916 ng+今日初めてHNしたけどHNで過学習が良くないってことだけ頭に入っててlayer normalizationnチェックしてreluにしてLrを5e-5:100,5e-6:1500, 5e-7:10000, 5e-8:20000にして~ってやっても全然学習進まなくてとしwiki読み直したら画風再現なら過学習気味にさせるくらいがいいとあってLrを5e-4から雑に回してノイズが出たら1000stepくらい前のよさそうな奴選んで一桁落とすオラ!学習!学習中断!学習!のちんちん亭学習したらうまくいってよかった --
- VAEに関して→https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670?sort=new#discussioncomment-4021085
--
- 自分はckpt→diffusers変換用スクリプトについて尋ねたのだけどスクリプト内のtext_model.load_state_dict(text_model_dict)をtext_model.load_state_dict(text_model_dict,strict=False)に変えれば読み込めると昨日としに教えてもらったDBの学習用スクリプトにも多分同じ箇所があるはずckpt→diffusers→ckptの変換をしても変になったりしなかったからこれで大丈夫みたい --
- 前ステで悩んでたとしも解決しちゃったっぽいしすごい今更感あるしいざ書いてみたら思った以上に中身が無かったけどAnime Segmentationの導入方法書いてみたよよかったら参考にしてみてほしいhttps://rentry.org/z9ovc
--
- >マージの話題で時々匿名って単語を見るけど縁くん的なモデルの愛称?匿名モデル=野良NAI=リークNAI=NovelAI流出モデル --
- 学習用データセットのキャプション弄る拡張機能更新しましたREADMEも更新したのでちょっと前の更新も含めてご報告・データセットの読み込み時や画像選択時にBLIPやDeepDanbooruを使ってキャプションに追記などする・サブディレクトリの読み込み・画像を手動で選択して絞り込む機能・その他いろいろhttps://github.com/toshiaki1729/stable-diffusion-webui-dataset-tag-editor
--
- とっしーグラボ2台の生成と学習でwebUI二つ同時起動したい時ってstable-diffusion-webuiのフォルダ自体二つ必要なのかなそれともwebui-user.batのグラボ指定各自にしたもののみでOK?>それともwebui-user.batのグラボ指定各自にしたもののみでOK?こっち --
- >グラボ2台の生成と学習でwebUI二つ同時起動したい時って>stable-diffusion-webuiのフォルダ自体二つ必要なのかな>それともwebui-user.batのグラボ指定各自にしたもののみでOK?webui.batをもう一つ作ってset CUDA_VISIBLE_DEVICES=1,って中身に追加した上でwebui-user.batも弄ったら複数起動できるようになったぞ俺メインが3070でサブが1060なおかげで両方でxformers使うのに一苦労あったけどここのとしあきに教えてもらって出来るようになったわ --
- Viscuitmix(油彩風推奨のモデル)
WS@0.3 waifu1.2 +waifu1.35 =temp1
WS@0.05 ElysiumV1 +SD1.4 =temp2
AD@1 temp2 +f222 -SD1.4 =temp3
WS@0.25 temp3 +r34 =temp4
WS@0.3 temp1 +temp4 =Viscuitmix --
- 168無念Nameとしあき23/01/04(水)17:41:23 ID:IapL07ZANo.1052623132
たておつちょっとお出しできないモノができてしまったので興味ある人は各々やってみてね…
bstaber + Izumi0.1 0.25
O1 + shirayuki general v1
10,0.05,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1,1,1,0.9,0.8,0.7,0.6,0.5,0.4,0.3,0.2,0.1,0.05,0 --
- Waifuの1.2って今から入手できるところあるんだろうか…
と書こうとしたけどアノンのまとめにあったわ --
- たておつスクロール化できたのでとしもuser.cssに↓コピペして試してみてほしい.extra-network-cards {overflow-y: auto;max-height: 360px;}高さもっと広くしたり狭くしたくなったらmax-heightの値調節してみてね --
- 🎴のスクロール化css、合体させて、よくある質問のページに反映させました。ありがとうね! --
- >ここ数日学習させて分かった俺の考えが間違えじゃなきゃ>Loraはまさのり化は不要>そんでもって切り取りも境目が曖昧化するから不要>まんまtrainingのみで服とかは部分的な画像のみでキャラ名タグ入れればおっけい>そして一番重要なのは目>目だけの画像入れるか入れないかでだいぶ変わる>目だけの画像にタグでキャラ名とeye入れてやると学習後の顔の目がクッキリになる --
- 本スレどの虹裏にあるん? --
- 過学習しやすい部分を切り抜いて白くしても大丈夫どころか過学習が抑えられるらしい --
- stable diffusionのmodel hashってどこに入力すればいいのー誰か教えてー --
- ごめん、何をしたいのかさっぱりわからない。このままだと俺にかなりのエスパー力が求められるので、もうちょっと情報を頼む。まず何のためにmodel hashを入力したいんだい? --
- 言葉足らずで申し訳ない。
civitaiでcopy generation dataしてstable diffusionで画像生成したいんだ。 そのコピーしたデータの中にmodel hashがでできたんだ。
でも俺はそのmodel hashをどこに入力すればいいのかを知らないから教えてほしい。 --
- ありがとう。なるほど、よくわかったよ。Civitaiのサンプル画像を参考に、(完全に、もしくはある程度)再現したいってことだね。
この場合、model hashは入力するものではなく、表示されて参考にするだけで、1111に入力するものではないんだ。画像に使用されたモデルを探す際の手がかりの一つでしかない。
ハッシュ値でググれば見つかるかもしれないけど、自家製のマージモデルとかで非公開かもしれない。
手がかりはもう一つ、画像によってはモデルのファイル名が記載されていることもある。これは画像生成時の1111の設定による。 --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
LoRAで重要なこと枚数→10~20が成功しないで100枚1000枚とかするな
エポック→もう5でいいや
ステップ→500以上にするな 成功するまで回転は速く
サイズ→2048x2048以上とかでなければそのまま放り込め
正則化→まずなしでやれ
TRIGGER単体で元画が出るくらいの方が判断しやすい
学習元と出力モデルは揃えろ --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
>LoRAで重要なこと
・次元数(dim)が8で再現度が不満なら64とか128にすればいいけど256とかになると結構失敗するイメージ
・バッチ数は学習速度アップとメインメモリ節約になるけど3060 12GBで4が限界な感じするしどうせすぐ終わるからつよつよグラボでもないなら1でいいんじゃね感ある
・学習枚数は1~5枚とかでも結果出るけどそれくらいだと運用時に0.7とかに下げないとポーズとかは固定されがち --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
たておつ
LoRAは最適解が未だに発見されてない感じで本当にやればわかるさくらいでしかない気がする
学習画像一桁~10何枚しか集められない作品でやったけど
女キャラなら16次元まででいける
男や衣装持ちキャラなら128次元まであげた方が楽
女キャラだと10~20繰り返しくらいまでで覚える
それ以外は30~50繰り返し
枚数少ないほど絵柄が学習元よりになって多いほど汎化?するのかモデルに合わせた絵柄になる
NAIやcertaintyが他モデル合わせても柔軟に動くけど
普段使ってるモデルで学習してAOM2hardで出したのが一番シコれる絵になった
全部個人の感想です --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
>>300枚以上ならもう1でいいってことなのね
>300枚入れてるなら1か2でいいと思う
>4以上にするとepoch1の時点で結構ピーキーだと思う
むしろそんなに素材あるならbatchsize上げるのもあり
メモリ足りないならgradient_accumulation_stepsでbatch size増やす
300枚もあるなら4~8は欲しい
ちなgradient_accumulation_stepsを使った時のstep計算余計なことしてるから目的のepoch数÷gradient_accumulation_stepsでepoch数決める必要があるのは注意 --
- どうやったら作品例と同じような絵が生成できるの?シード値とかモデルを合わせるだけじゃだめなのか --
- 「生成(Generate)」ボタン押すと灰色(中断ボタン)になったきりでctrlとEnter押さないと生成できなくなる現象が起きているのですが解決方法ご存知な方いませんか(´;ω;`) --
- プログレスバーを表示するをONにしたりShow live previews of the created imageにチェック入れてるのにプログレスバーも出ないし途中経過の画像も表示されんしGenerateボタンも戻らない…なぜだ… --
- extensionフォルダにある「DreamArtist-stable diffusion」削除したら全部解決したわ…謎… --
- orangemixのvaeにトロイ検知(Trojan:Script/Wacatac.H!ml)、海外のサイトでは誤検知の可能性が高いとされていたが、virustotalなどのオンラインサービスではファイルサイズが大きいため確認ができなかった 誰か確認してほしい --
- stable diffusion web ui をcolabで動かしてて、呪文「short sailor uniform」と「leotard」を組み合わせて、
インナーをレオタードにしながら、上着としてセーラー服を着せたいんだけど、なかなか望んだ通りの絵が生成されない。
同時に2種類の服装は認識してくれないのかな?
たまーにレオタードと短いセーラー服がちゃんと生成されることがあるけど、何だかイメージと違うことが多くて…
もし分かる人がいたら教えていただきたい。 --
- なんか今日windowsdefenderでvaeファイル使用時全部トロイ検知してくるようになった。taggerでタグ付けしようとしたときのモデルファイルも同様。怖い人は削除でいいと思うけど、今まで通り使いたい人は除外設定入れたほうがいいかも。 --
- styles.csvを直接弄る人に注意 csvってあるとおり、最初の一行目がヘッダの行になってるパターンで、ヘッダ行がいつの間にか消えてた結果、起動すらしなくなった。困ってる人はいないだろうけど、居たら届け。 -- みんなのとしあきの卵?