コメント/適当に書き込む所
Last-modified: 2024-05-04 (土) 20:34:18
適当に書き込む所
- >X/YのInclude Separate Imagesって何…?結果表示の時にグリッドだけじゃなくて個別に各画像も表示させるかどうか --
- さっぱり詳しくないのだがTIの方は活性化関数のせられないのかな --
- >Draw legendとか切ったことないから推定だけどX/Yしたときの比較画像に入ってるパラメータと値の説明書きを入れる/入れないだと思うよCFG scale = 12.5とかね切ると生成した画像だけがグリッドになって出てくると思う --
- >UPscaleって設定どれがいいの?>waifu2xと比べてどっちがいい?性能面ならBSRGAN>ESRGAN>SwinIRただその分メモリも馬鹿食いするので実用面ではその逆でも正直それに拘らずReal-ESRGAN-GUIって外部のツール使った方がいいと思うよ --
- >waifu2xとかBSRGANは線とかを区別してきれいに拡大してくれるからLanczoとかよりも優秀ではあるけど>AIの拡大っていうのは拡大した後にさらにAIで塗り直すのよ>瞳を拡大したらちゃんと瞳を新しく描いてくれるわけです>その度合をdenoising strengthで決められるんだけど>製作者の推奨は0.2ですなるほどありがとう!めっちゃ参考になります! --
- 画像がエモくなる系ワード教えて欲しいbacklightとsunsetは良かった --
- >生成画像がたまに黒塗りになるんだけどこれってAI側うまく生成できてない?どれで生成した画像かは知らんけど俺はnegativeにpitch blackって入れたら出力されなくなった --
- >>ちなみにdenoising strengthってのはどこにありますか?>多分自己解決しました。IMG2IMGで描かせるってことか!img2imgに絵をつっこんで下のscriptからupscaleを選んでBSRGANとか入れてればそれを選ぶ(入れてなければLanczosとかで)それでdenoisingを0.2くらい --
- >>>ちなみにdenoising strengthってのはどこにありますか?>>多分自己解決しました。IMG2IMGで描かせるってことか!>img2imgに絵をつっこんで下のscriptからupscaleを選んで>BSRGANとか入れてればそれを選ぶ(入れてなければLanczosとかで)>それでdenoisingを0.2くらいなるほど!スクリプト使うのか!ありがとう神よ! --
- >画像がエモくなる系ワード教えて欲しい>backlightとsunsetは良かったdusk twilight light_particles embers --
- >大分前にトレーニングラボでぽっかりアナルDB配布されてなかったっけ向こう産だから大味かもねhttps://rentry.org/gapemodel --
- >TIで触手!ぶっかけ!汁大量!みたいな特徴を学習させる場合もやっぱり画風は揃えないと良い結果は得られないよね?画風ならHNだけど触手だと細かいものも学習させたいしメモリー負荷増えたから3090購入買っちゃえになる --
- https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2401長い呪文は75トークンずつ処理されてるって今知ったわ知ったところで呪文や設定をどうしたらいいのか俺にはわからないが… --
- ANDはseed固定してそれぞれの出力結果をあらかじめ知ったうえで混ざるといいと思った --
- AND (Composable-Diffusion) の解説はここhttps://energy-based-model.github.io/Compositional-Visual-Generation-with-Composable-Diffusion-Models/推奨される使い方としては背景AND人物みたいな感じ --
- >境目のトークンは引き裂かれて機能しなくなるから75トークン付近まで来たらカンマとかで一度埋めるといいのかなそれを防ぐ機能があるよって話でしょ72,(73 74 75 76),77みたいなprompt区切りのときに72,(73 74 75 & 76),77みたいな分割区切りをしないように72,埋 埋 埋 & (73 74 75 76),77と最後のカンマの後を埋めて(padding)調整してくれる機能があってその際に75から遡って一番近いカンマをどこまで(prompt何個分まで)遡るかがIncrease coherency by padding from the last comma within n tokens when using more than 75 tokensの数値ってことなんじゃないかな --
- AND は人物や背景のプロンプトがお互いに混ざるのを予防してくれる感じ特に色や画風指定とかが混ざりにくくなる --
- AND使う時ってoil paintingみたいな画風指定を全体に賭けようと思ったらANDまたぐたびに入れ直した方がよいの? --
- >二人分の要素が一人に集約されてるのかこれ?そう一人分の要素を一気に書き上げる必要がある時に使う女の子にさせたいのに男役が行動するって時に女の子の要素を一気に{}もしくは()内でandで区切って書き上げる --
- Waifu1.3対応の呪文サイトを見つけたhttps://dskjal.com/others/waifu-diffusion-workflow.html#enum-danbooru-tag-v1.3 --
- >AND使う時ってoil paintingみたいな画風指定を全体に賭けようと思ったらANDまたぐたびに入れ直した方がよいの?全体的な構図は入れた方がいいかしれない --
- >要素を一気に{}もしくは()内でandで区切って書き上げる分離したい要素ごとにカッコで括ってand指定すればいいのかなるほど --
- >ありがとう>この機能は何のためにあるのってディスカッションでそれに対する解説のリンクだったのか>問題に対する対策は既に済んでいてユーザーサイドでなにかする必要は無いわけだねこの機能はあれじゃなかったっけ…過去の75トークン時代の呪文との互換性担保のためだって聞いたことある --
- >無限にオカズを生み出すガチャって脳の仕組み的にはかなり依存症の原因になりそうよねボタンを押すとバナナが出てくる装置のボタンを押す猿だよねソシャゲは金銭的限界があるけどAIガチャは存在しないので理想のバナナ出すための中毒になりそうウキー!! --
- いもげいもげ>NAIくんには関係ないこと?img2img、ラフ画像とかある画像から別の画像をAI生成させる機能NovelAIにもUpload imageってボタンがあると思うけどその機能 --
- >質問なんですがNAIで髪の色2色にするってできます?>黒髪で部分的に白くするとか某所で見かけただけで自分じゃやってないが「{{{gradation hair}}}, 髪の色 hair,別の髪の色 hair,…」で4,5色ぐらいまではでるとかでも場所まで指定できるとは書いてなかったな --
- >試しに難しい髪色であろう東方の聖白蓮を指定したけど衣装までついてくるから難しい>とりあえず島風の服を着せるも元衣装が残ってしまってこれはこれでナイスデザインにキャラ名+Hair colorでできるかもHijiri byakuren Hair color,Shimakaze Costume,{{{rice_shower_(umamusume)}}}で聖白蓮の髪色をして島風の服を着たライスシャワーが出来たが何故かシャワー室ばかり出てくる --
- >PNG infoからtext2imgに送る時にシード値やチェックポイントも変更されるの選択性になってくれねえかなあ>前使ったプロンプト使い回す時に大体使ってるからhttps://rentry.co/u5thwPNG infoにシードとモデルを除外できるチェックボックスを追加するパッチを作ってみたどんどん更新されてるからこれがいつまで使えるは分からない --
- >それとも全身図でこれを身に着けている写真の方がいいんだろうか?できるだけ覚えさせたい特徴の画像を用意してその特徴以外はバラバラな奴がいい全部背景白かったりすると背景が白いってことまで特徴として学習しちゃう>全部背景白かったりすると背景が白いってことまで特徴として学習しちゃう背景白抜きにしてwhite backgroundを指名除外してちょっとチャレンジしてみる一晩あれば雰囲気だけでも掴めると期待して --
- >顔やポーズはそのままに髪型や衣装だけ、あるいはその逆の変更ができるようになるのはまだか…AUTOMATIC1111ならプロンプトエディティングで途中から変えるといいよ --
- >TextEncoder学習対象とするやつって無料colabでも動くの?>VRAM16GBだとできないって思ってた実際ちゃんと反映されてるかはよくわかってないんだがたぶん出来てるはずちなみにここに書かれてたやり方でやってるhttps://note.com/kohya_ss/n/n88f1c8ab7883 --
- >これはパーツごとにはちゃんと変わってるんだが顔の角度が大体同じだったやつ難しい事は知らんし単なるやった上での感想だけどDBって生成ステップごとに覚えさせた絵をうっすらimg2imgするイメージな気がするプロンプトで生成された物とうっすら重ねた絵の共通点が多い場合実体化していく学習によってプロンプトで生成される物も学習した絵に近づいているので重なりやすくなっている感じ例えば顔で学習する絵の角度が少ないと重なるのが1つしか無くて同じ角度ばかりになる枚数が多いとその辺はある程度緩和されるゆるく学習させるとうっすら重ねる絵がものすごくうっすらになるので顔の角度なんかはプロンプトに追従するようになるけど似ないという欠点が出てくる過学習させると同じ絵ばかり出すようになるけどプロンプトを多くしたりCFG Scaleを下げると学習の効力が薄まってだいぶまともな絵を出したりする個人的には枚数を沢山でやや過学習気味にして数値とプロンプトで調整する方向でやっている --
- たておつDeepdanbooruで自動生成したタグからTIで覚えさせたいタグを削除するツールできたhttp://tajiken.org/uploader51/upload.cgi?get=00058 --
- HNのガイドとかいうのがあったけどここだと一応VAEはオンにすると書いてあるもう何も分からないhttps://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670 --
- >https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670>Train in 512x512, anything else can add distortion>I've tested this several times. I haven't gotten good results out of it yet. So up to you.やっぱりそうか……そうかなとは思ってたんだけど --
- >たておつ>layer structure「1,2,4,2,1」とlayer normalizationしたら心なしか過学習が抑制された気がしないでもないhttps://zenn.dev/discus0434/articles/14e1d7c9baf8b5説明貼っとく、なおワイは1ミリも理解していない --
- 469無念Nameとしあき22/10/23(日)02:03:00 ID:1UFKTPT6No.1027318916No.1027318916 ng+今日初めてHNしたけどHNで過学習が良くないってことだけ頭に入っててlayer normalizationnチェックしてreluにしてLrを5e-5:100,5e-6:1500, 5e-7:10000, 5e-8:20000にして~ってやっても全然学習進まなくてとしwiki読み直したら画風再現なら過学習気味にさせるくらいがいいとあってLrを5e-4から雑に回してノイズが出たら1000stepくらい前のよさそうな奴選んで一桁落とすオラ!学習!学習中断!学習!のちんちん亭学習したらうまくいってよかった --
- VAEに関して→https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670?sort=new#discussioncomment-4021085 --
- 自分はckpt→diffusers変換用スクリプトについて尋ねたのだけどスクリプト内のtext_model.load_state_dict(text_model_dict)をtext_model.load_state_dict(text_model_dict,strict=False)に変えれば読み込めると昨日としに教えてもらったDBの学習用スクリプトにも多分同じ箇所があるはずckpt→diffusers→ckptの変換をしても変になったりしなかったからこれで大丈夫みたい --
- 前ステで悩んでたとしも解決しちゃったっぽいしすごい今更感あるしいざ書いてみたら思った以上に中身が無かったけどAnime Segmentationの導入方法書いてみたよよかったら参考にしてみてほしいhttps://rentry.org/z9ovc --
- >マージの話題で時々匿名って単語を見るけど縁くん的なモデルの愛称?匿名モデル=野良NAI=リークNAI=NovelAI流出モデル --
- 学習用データセットのキャプション弄る拡張機能更新しましたREADMEも更新したのでちょっと前の更新も含めてご報告・データセットの読み込み時や画像選択時にBLIPやDeepDanbooruを使ってキャプションに追記などする・サブディレクトリの読み込み・画像を手動で選択して絞り込む機能・その他いろいろhttps://github.com/toshiaki1729/stable-diffusion-webui-dataset-tag-editor --
- とっしーグラボ2台の生成と学習でwebUI二つ同時起動したい時ってstable-diffusion-webuiのフォルダ自体二つ必要なのかなそれともwebui-user.batのグラボ指定各自にしたもののみでOK?>それともwebui-user.batのグラボ指定各自にしたもののみでOK?こっち --
- >グラボ2台の生成と学習でwebUI二つ同時起動したい時って>stable-diffusion-webuiのフォルダ自体二つ必要なのかな>それともwebui-user.batのグラボ指定各自にしたもののみでOK?webui.batをもう一つ作ってset CUDA_VISIBLE_DEVICES=1,って中身に追加した上でwebui-user.batも弄ったら複数起動できるようになったぞ俺メインが3070でサブが1060なおかげで両方でxformers使うのに一苦労あったけどここのとしあきに教えてもらって出来るようになったわ --
- Viscuitmix(油彩風推奨のモデル)
WS@0.3 waifu1.2 +waifu1.35 =temp1
WS@0.05 ElysiumV1 +SD1.4 =temp2
AD@1 temp2 +f222 -SD1.4 =temp3
WS@0.25 temp3 +r34 =temp4
WS@0.3 temp1 +temp4 =Viscuitmix --
- 168無念Nameとしあき23/01/04(水)17:41:23 ID:IapL07ZANo.1052623132
たておつちょっとお出しできないモノができてしまったので興味ある人は各々やってみてね…
bstaber + Izumi0.1 0.25
O1 + shirayuki general v1
10,0.05,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1,1,1,0.9,0.8,0.7,0.6,0.5,0.4,0.3,0.2,0.1,0.05,0 --
- Waifuの1.2って今から入手できるところあるんだろうか…
と書こうとしたけどアノンのまとめにあったわ --
- たておつスクロール化できたのでとしもuser.cssに↓コピペして試してみてほしい.extra-network-cards {overflow-y: auto;max-height: 360px;}高さもっと広くしたり狭くしたくなったらmax-heightの値調節してみてね --
- 🎴のスクロール化css、合体させて、よくある質問のページに反映させました。ありがとうね! --
- >ここ数日学習させて分かった俺の考えが間違えじゃなきゃ>Loraはまさのり化は不要>そんでもって切り取りも境目が曖昧化するから不要>まんまtrainingのみで服とかは部分的な画像のみでキャラ名タグ入れればおっけい>そして一番重要なのは目>目だけの画像入れるか入れないかでだいぶ変わる>目だけの画像にタグでキャラ名とeye入れてやると学習後の顔の目がクッキリになる --
- 本スレどの虹裏にあるん? --
- 過学習しやすい部分を切り抜いて白くしても大丈夫どころか過学習が抑えられるらしい --
- stable diffusionのmodel hashってどこに入力すればいいのー誰か教えてー --
- ごめん、何をしたいのかさっぱりわからない。このままだと俺にかなりのエスパー力が求められるので、もうちょっと情報を頼む。まず何のためにmodel hashを入力したいんだい? --
- 言葉足らずで申し訳ない。
civitaiでcopy generation dataしてstable diffusionで画像生成したいんだ。 そのコピーしたデータの中にmodel hashがでできたんだ。
でも俺はそのmodel hashをどこに入力すればいいのかを知らないから教えてほしい。 --
- ありがとう。なるほど、よくわかったよ。Civitaiのサンプル画像を参考に、(完全に、もしくはある程度)再現したいってことだね。
この場合、model hashは入力するものではなく、表示されて参考にするだけで、1111に入力するものではないんだ。画像に使用されたモデルを探す際の手がかりの一つでしかない。
ハッシュ値でググれば見つかるかもしれないけど、自家製のマージモデルとかで非公開かもしれない。
手がかりはもう一つ、画像によってはモデルのファイル名が記載されていることもある。これは画像生成時の1111の設定による。 --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
LoRAで重要なこと枚数→10~20が成功しないで100枚1000枚とかするな
エポック→もう5でいいや
ステップ→500以上にするな 成功するまで回転は速く
サイズ→2048x2048以上とかでなければそのまま放り込め
正則化→まずなしでやれ
TRIGGER単体で元画が出るくらいの方が判断しやすい
学習元と出力モデルは揃えろ --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
>LoRAで重要なこと
・次元数(dim)が8で再現度が不満なら64とか128にすればいいけど256とかになると結構失敗するイメージ
・バッチ数は学習速度アップとメインメモリ節約になるけど3060 12GBで4が限界な感じするしどうせすぐ終わるからつよつよグラボでもないなら1でいいんじゃね感ある
・学習枚数は1~5枚とかでも結果出るけどそれくらいだと運用時に0.7とかに下げないとポーズとかは固定されがち --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
たておつ
LoRAは最適解が未だに発見されてない感じで本当にやればわかるさくらいでしかない気がする
学習画像一桁~10何枚しか集められない作品でやったけど
女キャラなら16次元まででいける
男や衣装持ちキャラなら128次元まであげた方が楽
女キャラだと10~20繰り返しくらいまでで覚える
それ以外は30~50繰り返し
枚数少ないほど絵柄が学習元よりになって多いほど汎化?するのかモデルに合わせた絵柄になる
NAIやcertaintyが他モデル合わせても柔軟に動くけど
普段使ってるモデルで学習してAOM2hardで出したのが一番シコれる絵になった
全部個人の感想です --
- スレに出たLoRA関係のメモ(各としあき個人の感想です)
>>300枚以上ならもう1でいいってことなのね
>300枚入れてるなら1か2でいいと思う
>4以上にするとepoch1の時点で結構ピーキーだと思う
むしろそんなに素材あるならbatchsize上げるのもあり
メモリ足りないならgradient_accumulation_stepsでbatch size増やす
300枚もあるなら4~8は欲しい
ちなgradient_accumulation_stepsを使った時のstep計算余計なことしてるから目的のepoch数÷gradient_accumulation_stepsでepoch数決める必要があるのは注意 --
- どうやったら作品例と同じような絵が生成できるの?シード値とかモデルを合わせるだけじゃだめなのか --
- 「生成(Generate)」ボタン押すと灰色(中断ボタン)になったきりでctrlとEnter押さないと生成できなくなる現象が起きているのですが解決方法ご存知な方いませんか(´;ω;`) --
- プログレスバーを表示するをONにしたりShow live previews of the created imageにチェック入れてるのにプログレスバーも出ないし途中経過の画像も表示されんしGenerateボタンも戻らない…なぜだ… --
- extensionフォルダにある「DreamArtist-stable diffusion」削除したら全部解決したわ…謎… --
- orangemixのvaeにトロイ検知(Trojan:Script/Wacatac.H!ml)、海外のサイトでは誤検知の可能性が高いとされていたが、virustotalなどのオンラインサービスではファイルサイズが大きいため確認ができなかった 誰か確認してほしい --
- stable diffusion web ui をcolabで動かしてて、呪文「short sailor uniform」と「leotard」を組み合わせて、
インナーをレオタードにしながら、上着としてセーラー服を着せたいんだけど、なかなか望んだ通りの絵が生成されない。
同時に2種類の服装は認識してくれないのかな?
たまーにレオタードと短いセーラー服がちゃんと生成されることがあるけど、何だかイメージと違うことが多くて…
もし分かる人がいたら教えていただきたい。 --
- なんか今日windowsdefenderでvaeファイル使用時全部トロイ検知してくるようになった。taggerでタグ付けしようとしたときのモデルファイルも同様。怖い人は削除でいいと思うけど、今まで通り使いたい人は除外設定入れたほうがいいかも。 --
- styles.csvを直接弄る人に注意 csvってあるとおり、最初の一行目がヘッダの行になってるパターンで、ヘッダ行がいつの間にか消えてた結果、起動すらしなくなった。困ってる人はいないだろうけど、居たら届け。 -- みんなのとしあきの卵?
- 通常の生成速度が上がったけどアップスケールの速度が上がらない…という場合のメモ Anime6Bにて 高解像度ステップ数:1 ノイズ除去強度:0.01 理屈不明なのでメモ書き --
- できる限りケチって環境構築しようとしたところ、OS Win11、CPU i7第4世代、RAM 4+8=12GB、グラボ GTX1060 6GBで動きました。xformersとmedvramを指定しています。VRAMは3~4GB消費です。メモリは10GB食うので、12GBでぴったり。まぁ16GB積むとキリがよくてよさそうです。動作速度は、Google Colabとそれほど体感ではそれほど大差ない感じ。少しは重たいですが。いわゆる「3万円PC」で動いたという報告でした。 --
- 同じ構図のイラストしか出ないときってどこの設定変えるんだっけ --
- >> 2023-03-19 (日) 19:19:22 似たような衣装欲しくて粘った時はwhite leotard AND sailor collar with red tie,sailor uniformあたりとネガティブにskirtも入れて使ってた --
- 質問というか相談というか…webUIローカル版の初回導入って、1時間以上もかかるケースってありましたか? 私、今日初めてダウンロードして初回起動を始めたら、プロンプトが…model loaded in…の後更新しなくて、もう1時間経っちゃってます(補足までに、メモリ32bit/グラボRTX3070です) --
- よくある質問かもしれないがメモ代わりに残しておく
拡張子がsafetensorsのファイルをダウンロードしたけどモデルかLoRAかわからない
ファイルサイズを見てください
1MB~数百MB:LoRA(とその派生形)
2GB~:モデル
1MB未満:Textual Inversion --
- いつの間にかVRAMオーバーする画像も共有メモリ使って生成できるようになってる・・・ --
- win11にしてみたけど、何の支障もなくAI動いてくれてますわ --
- 同じ呪文、同じモデル、同解像度、同SEEDでも、automatic1111とNMKDで絵柄が違う NMKDの方が好みだけど遅い 1111でNMKDの絵柄にする方法は無いものだろうか --
- 本日、下記用語の個別解説ページを作成しました。
-Commit hash,git pull,AUTOMATIC1111
-特に「ローカル版導入」「エラー解決メモ」「最近の主な出来事」「不具合issue」で使用されている専門用語について重点的に実施
これで多少は初見さんが挫折しにくくなる…はず。 --
- まずは主にお詫びします。事象に慌ててしまい、「不具合issue」に書き込んでしまったこと、状況説明もろくになかったこと。画面キャプチャも貼り付けようとしたんですが、「コメント?」形式への絵の挿入方法がわからず。。。改行の仕方もわからないので見づらいですが状況を説明します ■事象:1.6にアップグレードしたらloraが使えなった ■状況:元のバージョンはわかりません(1.3かな。。。)が黒い画像が頻繁に出るようになったので、懸念はあったが1.6にしてみることに、動作確認をしていて、ほとんどの機能は使用できていたが、Loraが使用できていないことに気づく ■Dos窓のメッセージ:絵の作成の際、最初にこのようなメッセージが出る「ctivating extra network lora with arguments [<modules.extra_networks.ExtraNetworkParams object at 0x0000027DF9DC3100>~略~]: ValueError」■試したこと:バージョン1.4以降はLoraの指定方法が変わるとの記事を受け、Extra Networks>When adding to prompt, refer to Lora by>Filenameに変更 → webui.batの再起動 を試しても事象変わらず ■考察:Extra Networks の設定変更がきいていないものと思っている。いつもならctivating extra network lora with arguments []の中身はloraのファイル名だったように思う -- dempa?
- エラー文を読む限りLoRA使用の宣言に問題があるかも。
LoRAはどんな指示をしました?
具体的な手順を教えてもらえれば、原因がわかりそう。
参考:学習ファイルの使い方
ちなみに、画像添付や改行はコメント欄の下にあるコマンドでできます。 --
- 即レスありがとうございます。 プロンプトでの指示でいいですか? 基本的には「<lora:lit:0.55>や<lora:flatBG:-1.2:NCNF>」といったように使用していました。半年前からからこの使い方です。保存場所はC:\stable-diffusion-webui\models\Loraで、WebUIの「Lora」タブにも表示されています。 手順としては、新たに描くというよりは過去のプロンプトのテキストを 手動でコピペしただけです --
- Ver.1.5.0以降の新しいLoRA入力ルールに対応できていないか、Ver.1.6.0以降のLoRA(extention)またはLoRA Block Weightの互換性不良あたりが怪しいです。まずやることは、
-プロンプトを自分で書くのではなく、「Lora」タブからLoRAファイルを選んでプロンプトにどう入力されるか確かめる。(入力された内容が正しい記述方法であるはず)
-<lora:lit:0.55>ではなく、<lora:lit:0.55:1>としてみる(つまり、U-NET層の強調指示を省略せずに書く)それ以外にも色々書き方を試してみる。
-もしLoRA Block Weightを使っているならば、
--プロンプト記述方法が間違っていないか確認する
--webUIとLoRA Block Weightを更新、またはvenvフォルダを削除→再起動してvenv(ライブラリ)を再構築。または再インストールを試す(とにかく古いキャッシュファイルを消す)
以上を、まずは試してみてください。それでも再発するようなら、Ver.1.6.0ユニークのトラブルかもしれません。webUIとLoRA Block WeightのGitHubページにあるissue,Discussion,Pull request等に類似の不具合報告がないか探しましょう。 --
- ある程度、原因が掴めてきたら、スレ(本wikiで紹介しているところでもいいし、よそのスレでもいい)に相談してみるのも良いです。
私はVer.1.5.1なので最新のバグFixは把握していませんが、スレの方々はVer.1.6.0導入済みの方が何人かいます。
もし、私の言っていることがわからなければ、wiki内の各ページに解説があるのでそれを読んでみてください。 --
- 本当にありがとうございます
おそらくおっしゃるとおりLoRA Block Weightの互換性不良のようです
以下試してみた結果です
①「Lora」タブからLoRAファイルを選んで。→選んだものと今使用しているもので差分はなく間違いはなかったです②<lora:lit:0.55>ではなく、<lora:lit:0.55:1>としてみる⇒<lora:lit:0.55:1>は試してみましたが不可でした
③LoRA Block Weightを更新→もともと最新版でした④venvフォルダを削除、再起動→事象変わりませんでした
⑤LoRA Block Weightを無効にする→だけでは解消されず
⓺LoRA Block Weightを使用したプロンプトを通常のものに書き換える⇒Lora使用可能
結論:LoRA Block Weightを無効+構文からも排除する とできました。
無効にしてても、LoRA Block Weightを使用した構文が入ってるとほかの正常に描かれたLoraも全部使用できていないようでした
補足:venvの再構築もしたのでこちらも聞いているのかもしれません
最後に:本当に助かりました、ありがとうございました。 --
- 解決してよかったです。 --
- 最後にもう一つご意見お聞かせください
LoRA Block Weight が使えないというのもそれはそれで困るものでどうしたものか悩んでいます。
調べたり、作者のissueを見てもなかなか同じような症状の人がおらず、自分だけなのかなとも思っています。するとbugfixやパッチなどの期待はできないため、新規で構築しなおしたほうが良いのかもしれないとも思い始めました。
確かに判断は個人になりますが、ご意見伺いたく
(※率直に言うと、同じような症状の人があまりにもいないため不安に感じているだけなのかもしれません) --
- としはプログラム苦手だから無理だと思う。が、よそで同じ症状に悩んでいる人がいたよ
https://itest.5ch.net/fate/test/read.cgi/liveuranus/1694478908 のNo419参照 --
- そんなに困っているなら、自分がGitHubへ改善要望出すのがマナーだと思います。 --
- すまない、知恵をお借りしたい。SD触って3ヶ月くらいなんですが、ある画像で使われてるモデルが使いたくて、画像の中身のmodel項目見たんですが"EMS-XXX-EMS"という表記になってて、調べてみたんですがほとんど情報が見つからなくて頭抱えてます。ハッシュでもないし・・・それともこの"EMS-XXX-EMS"って表記はネットに乗せるほどのこともないSD触る上で基本的なことなのでしょうか? --
- うーん…単純に非公開の独自マージモデルなのでは?
CivitaiおよびPixaiで検索すれば、マージ素材として利用されたEMSなるモデルが見つかるかもしれないが…。 --
- やっぱりマージモデルの可能性が高そうですか。ありがとうございます、そっちの線で探ってみます! --
- 野暮な質問ですが、グラボの性能が低いと生成に時間がかかるだけでなく生成されるイラストの質も落ちるんでしょうか?それとも時間かかるだけで出されるイラスト自体は高性能グラボで生成したものと一緒? --
- 後者です。出力さえできれば結果は同一となります。ただ、一口に「グラボの性能」と言っても、主に「速度」と「VRAM量」という2つの要素があります。 --
- ありがとうございます。自分が使い慣れてないだけでしたね --
- 解像度指定と被写体距離に関する研究発表
画像は解像度指定のみを変更し、t2iで出力した結果(プロンプトにlong distant viewを含む)
生成毎のぶれは有るが概ね解像度を上げる程被写体を小さく書く事が出来る為、long distant viewに従い奥へ移動する
(高解像度指定をすると、各ドットの表現力を犠牲にdpiを上げる事が出来ると推測)
解像度変更による生成速度の差は体感できなかった、同様Vram負荷に差異は見られなかった --
- 以前誰かがテストした時は新旧のグラボで結果も変わってた。今の環境だと知らないが --
- それは壺wikiの「再現性」のページとかの話だね。ただ、生成結果に良し悪しの違いが出るわけではない。 --
- Civitaiのプロンプトが完全にコピーしても再現できない時があるのは、規制に引っかかるワードが消えているせいじゃないかなと。 --
- 不具合メモ。SDXLモデル切り替えでNo normが外れる時がある(破綻画像が再発)。ネガティブTIも入れているのに時々外れている時がある。(メタデータを覗くとハッシュが無い。再現性に影響あり)原因は不明。 --
- Intelのオンボードグラフィック(Intel UHD Graphics 770とか)をGPUとして使い倒すOpenVINO対応版がすごい。(1)ForgeのCPU使用時の半分程度の時間で生成できる (2)繊細なエラーが多く、起こる理由も直る理屈もイミフ(ポジとネガのプロンプトサイズは同じでなければなりませんってなんだよ(75とか150の部分を揃えないとダメらしい)) (3)モデル変更やキャンバスサイズ変更で数分の再コンパイルが必要になる (4)コンパイル結果を使い回す設定にするとcacheフォルダがギガ単位ファイルで埋まっていく (5)OpenVINO使用モードはPrompt matrixやX/Y/Z plotのところに格納されてるので他のScriptと併用できない (6)「きちんと」GPU用メモリを確保する都合上、CPU生成時と異なりメインメモリが32GBないとつらい --
- SDXLのponyモデル生成、学習両方でNANが発生しやすいような… --
- そうか、OpenVINOは一応並行計算やるからCPUで遅くなるやつ(※変な言い方)ほど生成時間が縮まるのか。PonyV6TurboDPOの1024x1024(DPM++ 2M Karras)で17s/itが出た。CPUの3倍以上速い…。なお処理が32GBギリギリらしく、最初の一時ファイル生成時に様々なエラーでよく落ちる(LoRA指定するとダメ)。もうちょっとだけ使用メモリ減らないかな… --
- SD.nextもOpenVINO対応してるが、それ使ってみた?、結構色んな機能を導入してて中にはメモリ節約向けのもあるようだが、hypertileとかNNCF 8bit/4bit対応とか。ちなみにモバイル向けは10世代からGNAというAI向け機能を載せているらしくかなりスピードアップする。
https://github.com/vladmandic/automatic/wiki/OpenVINO --
- 不具合ではないと思うからここに書き込むんだが、画像生成するたびにPC本体の空き領域が減ってることに気が付いたんだがこれって仕様なのか?因みに1111終わらせると減った分のは8割方戻り、PC再起動で元のGB数に戻ってるわ。 --
- 疲れた……7時間かけてようやく満足のいくLoraを作り終えた……背景消さずにずっとしてきたけど、やっぱ背景消しは重要なんだなって実感したわ。 --
- ↑二個上の方へ、生成した画像とかの格納場所の指定を見て下さい。テンポラリは起動の関係で消せる仕様(チェック項目)があるので幾らかは消えるので容量は回復します。毎回増えるのが嫌ならば設定でどこか纏めて入るように変えちゃって自分で消して下さい。作った画像も同じにしちゃうと消えちゃうから変えること。 --
- SD.NextのOpenVINO対応は使いやすいけどLoRAを指定すると謎のエラーで死ぬのでちょっと。1月にpytorch/issues/115236で直ってるらしいがそんなpytorchはいつ降りてくるやら --
- 最近pony系model導入したんですが、pony用のopenposeのmodelってまだ出て無いですよね? --
- SDnextは1111とかと同じ艶い出力を得るのに時間かかって諦めた。何かの設定の組み合わせが違うと思うんだがどの設定が影響しているのかが本当に分からない(コンパイルなしの時点で全然合わせられなかったんで今後のお付き合いをし難い。使いやすいって人もいるんだろうけど)。あと、生成画面とかのチェックボックス操作後にSettingのApply押すとSettingの更新判定がかかるのとか、コマンドラインオプションが優先されてSettingのApply押しても内部的に元に戻るのとかは、ちょっと勘弁。 --
- SD.Nextが色々違うとか癖があるとかは言い訳しようもないな、メモリや速さについてはforgeレベルに頑張ってる気はするが。上のOpenVINOのLoRA対応は3月末にtorch 2.2.2 cpuが公式になったからそれをpip installすると使えるようになる。 --
- ponyを高品質モデルとマージして質上げようとしたら大失敗した。性質の違う物を全く受け付けようとしないのか --
- Dynamic Promptsで組み合わせON、バッチ2以上、Seed固定で生成した時に、バッチ毎にSeed+1で生成してほしいけど、なんかバグってる。通常機能で生成ボタンを右クリック「停止するまで生成を続ける」で、無限に生成できるからそれ使ってる(停止したい場合は、同じようにボタンを右クリックして「この画像で生成を停止」を選べばいい)V1.6。今日初めて気づいた --
- Dynamic PromptsのCombinatorial batchesの挙動は最近変だと思ってる。{A|B|C|D|E}を2周してくださいって指定すると「ガゾウヲ 20コ ツクリマス」ってログに出る。小学校の算数やり直せ --
- super mergerの作者説明ではSDXLで使うにはメインメモリ64GB以上必要。実際にモデル-モデルでLoRAを作るのにメインメモリ使用量48GBを超えたのを確認。これ以外で32GBを超えないが2倍の金を出して64GBにして良かった。 --
- X/Y/Z plot の項目にsizeってあったっけ?最近追加されたのか調べても情報ないし指定の仕方からわからん。 --
- 昔はなかった。だが…今は違う!(ギュッ)
v1.9.0にて追加されたのだ。いや俺も1111のリリースページを調べて今気付いたんだけど。MinorですらないOthersのカテゴリに分類されてる。
指定の仕方(書き方の例)とか、詳しくは元のPR(プルリクエスト)#15354をご覧ください。要するに出力解像度を可変できます。 --
- これは!
まさかxとは思わなかった。そして普通にリリース載ってたのか。gridじゃなくて plotで検索してたせいで見つけられなかった、ありがとう。 --
- バグ修正で1.9.3まで出てるって事は1.9.xの安定板は1.9.3と見るべきか --
- SDnextでコンパイルでDynamicPromptsで非ランダムな順次生成をすると元の{}で囲まれてたダイナミックなプロンプトがどこにも保存されないので困ってるんだけどなんかいい方法ないかな。クリップボード履歴をアテにしてたんだけどコピーし損ねてたみたい。もしかしてプロンプト欄に直接書くの時代遅れ? --
- DynamicPromptsはCombinatorial generationのチェックボックスがOFFでもCombinatorial batchesのスライダが動かせるというヘンテコな挙動のせいで「10周くらいしてもらおうと思ってスライダいじって出かけたが、Combinatorial generationのONを忘れたせいで帰宅しても1枚しかできてない」という事故が。いや何枚作りますって表示見ずに出かけたのが悪いんだけど。うっかりさんにも救済を --