コメント/LoRA
Last-modified: 2024-04-16 (火) 16:34:52
LoRA
- 自分みたいな初導入奴はcpのやつ\venv\Lib\site-packages\bitsandbytes\cuda_setupまでのフォルダを作っとく必要があったのとaccelerateをインストールしとく必要があった。 --
- <.\venv\Scripts\activate>の行で「このシステムではスクリプトの~」でエラー出て怒られたけど<Set-ExecutionPolicy RemoteSigned -Scope CurrentUser -Force>実行したら通ったのでメモとして残します。(参考:https://www.python.jp/install/windows/venv.html) --
- NMKD版はLora使えないんかな (´・ω・`) --
- pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116でエラー出たんだがpythonが3.10でなく3.11で入っていたのとCUDAが11.8のみで11.6を別途インストールする必要があった。前提条件ちゃんと読むんやでとし君! --
- LoRA_Easy_Training_Scriptsからlora_train_command_line.pyが消えてたので「Linux環境で動かす場合」の手順をなんとかしないといけなくなってしまった --
- Linux環境の今のやり方だと最新版は動かせないってこと? --
- 「sd-scriptsのインストール」「実行用関連スクリプトのダウンロード」まではできたが、run_popup.batを実行すると「指定されたパスが見つかりません。」と出る --
- run_popup.batの中身は編集しましたか? --
- Dockerからsd-scriptsを実行したらtriton使えて高速化したりするんかね --
- 質問が2つあります。
一つ目です。「「sd-scriptsのインストール」「実行用関連スクリプトのダウンロード」まではできたが、run_popup.batを実行すると「指定されたパスが見つかりません。」」という現象が私にも起こっています。下の回答で「run_popup.batの中身は編集」とありますがそれはどういうことでしょうか?何をどう編集すればよろしいのでしょうか?
2つ目です。sd-scriptsのフォルダはstable-diffusion-webuiとは全く関係ないところに存在していますがこれで問題はないのでしょうか?
回答いただければ幸いです。幾分初心者でまだまだプログラムに対する理解すらない者でして愚かな質問をしていることは理解しておりますが、よろしくお願いいたします。 --
- 上の者です。「Starting popup training...指定されたパスが見つかりません。'accelerate' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。続行するには何かキーを押してください . . .」と出ます。上の方が「自分みたいな初導入奴はcpのやつ\venv\Lib\site-packages\bitsandbytes\cuda_setupまでのフォルダを作っとく必要があったのとaccelerateをインストールしとく必要があった。」と言っていたため、色々調べて試しては見たのですができませんでした。どなたか教えていただければ嬉しいです。 --
- venvの作成に問題があると思われるので、まずsd-scriptsフォルダ内にvenvフォルダがあるかどうか、その中にscriptsフォルダが有るかどうかなど確認してみてください。 --
- 私も「'accelerate' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。」で行き詰りました。 -- しぐにゃも?
- 続きです。venv → scriptsフォルダはありました。
その中に下記の3つがありました。
・accelerate.exe・accelerate-config.exe・accelerate-launch.exeはありました。
この状態でsd-scripts → LoRA_Easy_Training_Scripts → run_popup.batを実行すると同じエラーが出ます。
CPU,Ryzen7 / GPU 1660Ti(6G) / python 3.10.6を使用。 -- しぐにゃも?
- 「venvの作成に問題があると思われるので、まずsd-scriptsフォルダ内にvenvフォルダがあるかどうか、その中にscriptsフォルダが有るかどうかなど確認してみてください。」確認したところ、存在はしていました。しかし上の方と同様動きません。 --
- 今、install_sd_scripts_v5.batを使って入れ直したところ、'accelerate'のエラーが出なくなりました。
学習を行う
→ run_popup.bat
→ 「Do you want to run multiple trainings? keep in mind that this will prevent any more popups as it will load according to the json files input」の表示が追加
→ 「Do you want to load a json config file?」までは動作確認済み。 -- しぐにゃも?
- popup.batで「Starting popup training...指定されたパスが見つかりません。'accelerate' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。」になるのは、venvのパスが間違ってるのでvenv有効化出来ず、故にaccelerateコマンドも使えないのでこういうメッセージが出る。4行目を「call venv\Scripts\activate」にしたらとりあえず動いたけど、なんかまた別の場所に起因するエラーが起きたんで、とりあえずこの解決方法は「popup.batを開いたら先述のエラーが出た」という場合だけの解決方法ということで --
- ここのwiki参考にしてLORAやら何やら入れるの何回も失敗しまくって「LORA インストール」でググったサイト参考にしたら簡単に入れれたんだよなあ……このページの「実行用関連スクリプトのダウンロード」とか結構滅茶苦茶なことやってるし、俺が書き直しても間違ってそうだから詳しい人にもうちょっと頑張って書いてほしいという気持ちはある。 --
- ブログに「GTX16xxでの成功例があれば報告してください」と書かれていたので報告です。1660Ti(VRAM 6G)で動きました。反映も確認済み。
ただし、net_dim、alpha、train_resolutionを下げる必要がありました。
net_dim=110、alpha=55、train_resolution=400まで動作確認済み。
net_dim=128、alpha=64、train_resolution=512などにするとGPUメモリー不足のエラー(LoRA CUDA out of memory)が出て止まりました。 -- しぐにゃも?
- あまりに日進月歩なので編集はおろか、新しい方法への対応自体追いついてなかったりするから、悪いが2,3週間経った情報はもう話半分におもってくれ。このページもほとんどが初版で2ヶ月近く前の情報だから、時間が経っても通じる部分かもうメソッドが変わって通用しない部分かはその都度判断しないといけなくなってる --
- このサイトの通りにやったのですが、training_command.batを実行するとraise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)と出でしまいます。その後、何かキーを押してくださいと出で押すとウィンドウが強制終了するのですが、何が原因なのでしょうか、、、。 --
- 1から順にインストールしていって学習Modelを選択とありますがこれは用意した画像じゃない?どこからか入手してこないといけないのでしょうか? --
- 業務連絡です。累計コメント件数の増大に伴い、いくつかの変更を行いました。
(1)コメントを別ページに記録する形にしました。
(2)本体ページには最新10件を表示するようにしました。
(3)既存コメントの先頭にあるラジオボタンをONにすることで、対象のコメントの下にぶら下げ返信できるようにしました。つまりツリー構造です。
これらの変更に伴い、多少の整形や枝の移植を実施しました。 --
- Linux環境で動かす場合(要するにpaperspace)のとこlora_train_command_line.py が無くなってるせいか動かなかったので色々やって大体わかった手順を取り急ぎ追記しておきました。時間ができたらまっさらなインスタンスで確認します。 --
- どうしたらいいかわからなかったんでこれまでアプデ自体をやめてました。感謝。 --
- konya_ss GUIを導入したのですがTrain modelを押した後、「ValueError: invalid literal for int() with base 10:」というエラー文が出たのですが原因・解決方法がわかる方いらっしゃいますでしょうか。。自分なりに調べてはみたのですがイマイチ解らず。 --
- 再度入れなおしたらエラー吐かなくなりました。が、原因わからず、、 --
- 上でLoraのトリガーワードがわからない場合はメタデータを見るとありましたが、Loraのメタデータはどうやって確認するんでしょうか? --
- 方法は色々あります。
整形や着色のおかげでもっとも見やすいのが、Additional Networks拡張機能を利用する方法です。
誘導→https://wikiwiki.jp/sd_toshiaki/Extensions#a712d632
導入するとtxt2imgやimg2imgと同じ並びにAdditional Networksのタブが追加され、そこの右下でメタデータを確認できます。
🎴ボタンから任意のLoRAにカーソルを合わせて、右上に表示される (i) を押すことでもメタデータを確認できます。見易いとはお世辞にも言い難いですが、手軽なのが特長です。ただしこの機能は3/11辺りの1111アプデにより実装された機能です。
あと単純にLoRAファイル(.safetensors)をメモ帳とかのテキストエディタで開くことでもメタデータを一応確認できます。
これはLoRAのメタデータとかに限った話ではなくて、画像とかでも、大体のメタデータはメモ帳とかのテキストエディタで開くことで確認できます。 --
- としあきbatを用いて学習を試していたのですが、出来上がったモデルが「キャラ名」だけの指定だと全く違う画像が生成されてしまい、逆にそれ以外のキャラを構成する要素…上の例で言いますと、「1girl,standing…」のキャラ以外のタグを指定したときにキャラが生成される状態になっています。(keep_tokensは1に指定しています。)
学習対象から「1girl,standing」タグを除いた方がいいのかと考え消すと、今度はそもそもキャラが生成できなくなってしまいます。
「1girl」で正則化画像を作成をしてもみたのですが、変わらず…。
どのようにしたらキャラ名だけで出力されるようになるか、ご教示いただきたいです。 --
- 案外キャラ名の綴りが間違えてるとかのような気がする。 --
- 超初心者向けありがとうございます。ポーズを覚えさせたい場合は、検出したポーズとアングルを抜くのでしょうか・・・? --
- create_json.batが実行できません。超初心者向けステップ4で配布されているファイルそのものや、それのファイルパスを自分の環境に書き換えたもの、「ファインチューン向け~」からコピペして自分の環境に書き換えたものからファイルに作成したものでもcmdが一瞬で閉じ(文字化けのような表記が見える)、marge.jsonが生成されませんでした。学習画像は「hosi」フォルダのままです。ダブルクリックでも管理者として実行でも変わらず…。 --
- 文字化け画面が見える→sd-scriptsは実行できている|エラー画面で止まらない→画像フォルダへのパスやファイルに問題は無い。(たとえタグが空でもエラーは出ない)| marge_clean.json は生成できていますか? LoRaの作成に必要なのはそちらなのでそちらが出力されていれば問題ないのですが… --
- 返信ありがとうございます。marge_clean.jsonも生成されていない状況です。 --
- 少し修正したものをステップ4にあげてみました。これで治ればいいのですが --
- ご対応ありがとうございます。が、生成されませんでしたね…
スクリプトにある、venv\Scripts\activate.batファイルを手動で実行してみると、cmdが一瞬で開いて閉じる(cmdには何も記述がなし)挙動をするのですが、この挙動は正常でしょうか?
また、試しに空のmarge.jsonとmarge_clean.jsonファイルをフォルダにおいておくと、marge_clean.jsonだけが残ります(中身はないままですが…)。 --
- ダブルクリックで実行せずコマンドラインから実行してみてください。 --
- venv\scripts\activateに触れた瞬間落ちると言うことは仮想環境に問題があるっぽいのでvenv環境自体をリセットするかsd-scriptsの削除と再インストールを試してみて下さい --
- その際インストール最後の(no/fp16/bf16)の選択にはキーボードの1を入力してください(でないとエラーになります) --
- LoRA_Easy_Training_Scriptsのポップアップを日本語化しました https://rubber-suit-girl.booth.pm/items/4652973 --
- 自分の場合CUDA out of memoryが出てつまっていたんですがGPUメモリが8GBと12GBの二つ認識していて(タスクマネージャーで気づいたw)、8BGの方で動いていてエラーが出ていました。自分は知識不足でこんなのでだいぶ詰まったんですが、他の人の参考になるかもと思い、念のため残しておきます。 --
- sd-webui-train-toolsの導入に成功した人に記事を書いてほしいん。うちではタブ出たけど読み込み中のままだった。 --
- AttributeError: 'function' object has no attribute 'weight' と言うエラーが発生し、LoRAの適用時のみ画像生成が出来ないのですが、解決法をご存知の方が居ればご教授願えないでしょうか。 --
- sd-webui-train-toolsをURLからインストールしてみて、特にエラーも出てなく、インストール済になってるみたいなんだけど、再起動してもタブが出ないですね。。 --
- 4090環境で超簡単キット導入後にtorchを2.0.0cu118にしてxformersを0.0.18dev500に上げたらrohaスタートのbat設定とかデータセットやら同じなのに1.8倍近い速度アップが出来たし仮想メモリの消費も随分減ってかなり余裕持って動かせるようになるね あと学習本番前にトリトンが無いわ!ってめっちゃ連呼されるけど動作に問題はない様子 --
- すごい!アップデートしたらバッチサイズとかかなり上げてもメモリエラーが起こらなくなった --
- 「超初心者向け 5+0ステップで覚えるLora制作」のステップ4でcreate_json.batを実行してもno metadata / メタデータファイルがありませんと表示されるのですがどうしたらいいですかset sd_path="C:\Program Files2\lora_train\sd-scripts"set image_path="C:\Program Files2\lora_train\lora_train_data\train_dir"に書き換えても同じ結果でした --
- 取り急ぎ検証してみました。エラーが出る可能性は二通り考えられます。(1):TraceBack(most recent...)以下数行のエラー分が出力されたあと no meta data / メタデータファイルがありません。これはタグの書かれたテキストファイルの数が足りていない場合のエラー。(2:)1行目からno metadata / メタデータファイルがありません が表示される。これはディレクトリへのパスが間違っていてファイルを読めに行っていないときのエラー。念のためもう一度ご確認下さい。至急の対応のため別の原因があるかもしれませんが… --
- 検証していただきありがとうございます。1行目からno metadataです。パスは"C:\Program Files2\lora_train\lora_train_data\train_dir\10_aya maruyama\card_normal_4.txt"という感じの名前のtxtと同名のpngファイルで66個ずつあります --
- ちょっとソースを読んでみました。 sd-script\finetune\clean_captions_and_tags.py の 126行目の処理 os.path.exists 命令がエラーの原因のようですね。そしてこの os.path.exists というのが パスの実在を確認する命令で入力されたパスが存在するならtrueで正常な処理。存在しないならfalseで処理中断と。ううん…。本当に念のためですがbatの set image_pathを set image_path="%~dp0\lora_train_data\train_dir" に書き換えて試してみて下さい。たぶん無理っぽそうですが…。別の解決法がないか考えてみます。 --
- ありがとうございます。create_json.batには元からset image_path="%~dp0\lora_train_data\train_dir"と書かれているのですが、このままでいいのですよね?改めてcreate_json.batをダウンロードしてそのまま"C:\Program Files2\lora_train\create_json.bat"で実行しましたが同じ結果でした。 --
- あとは別の環境変数表現を使った set image_path="%cd%\lora_train_data\train_dir" とかですかね。かなりの手間ですがsd-scriptsの不具合が出ている場合もあるので一端sd-scriptのフォルダごとの削除からの再インストールも試してみて欲しいです --
- あああ!!たぶん原因が分かりました(違うかもしれませんが)。ディレクトリのパスに半角スペースが含まれているとエラーが出るかもしれません。ですので一端、半角スペースの含まれないディレクトリに lora_train を移動してお試し下さい。c:\lora_tarin や c:\program_Files2 と言った具合のパスに。 --
- 今度は別のエラーが出る、という場合は update_sd_scripts.bat を動かして環境を更新してみて下さい。もし4/1更新バージョンの sd_scripts に戻したい場合は sd-scripts のディレクトリをコマンドプロンプトで開いた状態で git reset --hard f037b09 を実行してください --
- おお!C:\program_Files2にインストールし直したらjsonを作成できました!ありがとうございます! --
- training_command_sample.batでjson_file=""で実行したら9.11MBのsafetensorsファイルが作成できたので階層とかは間違ってないと思います --
- "no kernel image is available for execution on the device 上記エラーが出た場合の対処で「sd-scriptsの実行オプションから"--use_8bit_adam"を外して実行すると解消する」とありますがこれはtraining_command_sample_lohaにあるrem --use_8bit_adamをまるごと削除するということでしょうか? --
- remが付いているのはコメント文なので実行オプションとしては有効化されていないのでは。問題が出てるのは別の要因かも --
- 再度手順通りにやってみたのですがno kernel image is available for execution on the deviceのエラーがでてしまいます。こちらに「sd-scriptsの実行オプションから"--use_8bit_adam"を外して実行すると解消する」とありますがこの手順をどなたか教えていただけますか。 --
- しかしねぇ…二ヶ月以上前の記事なのだから…。accelerate launch に付けるコマンドラインオプションから --use_8bit_adam を外すってだけじゃないですか? --
- sd-webui-train-toolsで無限ロードに入った人は、起動時のコマンド変えてみるといいかも。自分はそれで治った。試しにLora学習させてみたけど、確かにお手軽だったものの、出来はいまいちだった。上に書いてる手法の方が全然良いと思う。 --
- sd-webui-train-toolsを試そうと思ったんですが、学習結果のファイルが作れても生成したら反映された気配がありません。初歩的な質問ですがsd-webui-train-toolsにもトリガーワードって必要ですか?RTX3060なのでスペックは足りてます --
- sd-scriptsのLoRA学習用ツール、色々試したけどワイの検索力ではどの設定項目が何を示してるかちゃんと理解する事ができるツールが無かった…Bingに聞いても分からないし…結局なんのツールがオススメ?それともツールなんか使わないでaccelerate launch? --
- ワイも昨日から始めた超初心者やけど、微調整しながらaccelerate launchをひたすら繰り返してる。最初ステップ数とエポック数と繰り返し数の違いすらよくわかってなかったけど、実際触ってみると段々自分で考えられるようになってきたから、やっぱりやってみるのが一番いいよ --
- 「ステップ3:タグの編集とそのコツ」…別にトリガーワードとフォルダ名一致させる必要ないだろ。自分が間違えないようにというならわかるが。タグテキスト使う場合、フォルダ名とか学習に関係ない --
- そうなの? sd-scripts/train_README-ja.md の『複数class、複数対象(identifier)の学習』の項を参考にしたんだけど。確かにメタデータがあればフォルダ名との一致は必要無いかも。だけど一応メタデータを生成できない場合も考慮したくて…気になっちゃったならごめんね --
- ああ!『DreamBooth、キャプション方式』の項で説明されている、画像と同じフォルダにキャプションファイルを置くと『※それらの画像の学習に、フォルダ名(identifier class)は使用されなくなります。』ってタグテキストにも適用されるんですか!? …知りませんでした勉強になります --
- 5ステップの0ステップ目ですが初心者を混乱させそうな記述があったので勝手に直させてもらいました --
- 教師画像だけど「画像背景はある方が学習から除外し易い(要素がないほうが除外しにくい/無地ばかりだと無地を学習してしまう為)」って感じでいいのかな --
- ふと思ったが正則化ってDBの名残でLoraで使うものではないのでは・・・ --
- 学習は完了になってるんだけど、Lora使っても反映されない……学習出来てないという事だろうか? --
- トリガーWord入れた?loraで学習させたい対象をpromptに書かないと目的のものが描写できんよ --
- 入れてある。タグファイルの先頭に入れればいいんだよね?そのトリガーワードが全く働いてないんだよなぁ。どっかでおかしくなってるんだろうけど…… --
- トリガー以外の関連するようなタグを軒並みいれて無理矢理portraitで中央に引き出してもベースモデルのままっていうなら学習出来てないのかもね。俺はAdaFactorを低ステップで回しちゃったときに同じことあった。 --
- フロントエンドありがたいのだけどguiが見切れちゃってて実行ボタンが見えないです。できたらスクロールバーをつけていただけたら。 --
- ファインチューニング方式のやり方の解説めちゃ丁寧だ…神か --
- 『超初心者向け 5+0ステップで覚えるLoRA制作』の中でパスを記入する工程があって、「学習画像フォルダもデフォルトのパスで問題無いはずです。」とか書いてたりするけど、デフォルトのパスって何?既に記入されているパスだとすると、Xドライブなんて作ってないからパスとして正しいのか疑問。面白可笑しく書くのは良いけど、キチンと記載して欲しい。 -- bazuyak?
- 貴方の言うXドライブが記載されてるのは「学習のベースモデルファイル」の方では?この部分は個々人の環境に合わせて書き直す必要があるからXを例に置いてるんだろう。学習画像フォルダのパスはデフォルト(解説画像)の通り"%cd%/lora_train_data/train_dir"のままにしておくとbatファイルがあるディレクトリのlora_train_dataフォルダを指定してくれる。 --
- 誰に頼まれたわけでもなく、こんなに詳細かつ親切な説明を書いていただいて、どんな言葉で感謝の気持ちを伝えればいいのか俺にはわかりません。俺も編集者の一人なので、画像を用意したり挿入する際の手間をよく知っています。本当にお疲れ様です。 --
- 学習画像多めにして繰り返しとエポック減らすのがいいのか学習画像はほどほどである程度繰り返し数を稼ぐのがいいのか、正則化方式が良いのかファインチューンがいいのか次元数はどれくらいがいいのか...沼すぎるわよ... --
- たぶん正解は無い。引き算で学習してLoRAでモデルに対して足し算するから学習内容によって正解値が違う。モデル自身にもマージという足し算があるからほんとに沼。 --
- create_json.batを実行してもno module named tqdmと出てきて画像と同じ画面にならないのですがどうすればよいでしょうか? --
- sd-scriptsの仮想環境が変になってるのかもしれません。一度update_sd_scripts.batを実行して環境の更新を試してみてそれでも同じエラーが出るようなら、sd-scriptsをフォルダごと削除したあとにinstall_sd_scripts.batを実行して仮想環境を新しく構築してみてください --
- create_json.batのことを質問した者です。教えていただいたとおりにやったら解決しました。ありがとうございます。 --
- LoRAって最終どこまで精巧に出せるんだろう。今やってる感じだと複雑な服装とか髪型のマイナーキャラだと、服や髪がどうしても再現できない。仕方なく3Dモデル+i2iでLoRAも使って再現してる。 --
- やろうと思えばかなり精巧に出せると思うが、特徴ごとに重み(?)があって、それをLoRA毎に細かく設定していく必要があるから労力の割に合わんと思う。 --
- '--train_data_dir' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。って表示されてパスとか間違ってるのかと思い何通りか試してみましたが改善できません。どなたかわかる方おりませんでしょうか? --
- バッチファイルの記述の書き換えででset xxx=yyyみたいなところの=の両側か片側に空白が入っていたりしませんか?自分はそれでよくそのエラーでてましたが --
- キャラでなく画風を学習させたいのですが、2023/04現在ではLoRA(LoHa)が優勢ですかね?
別ページに"画風の精度をあげるならDB+HNが最強"とありますが古い記述のようですし、他サイトでも意見が分かれているような…
試すのが早いのは承知の上ですが、、皆様の感覚では如何でしょう。。 --
- 自環境だとHNよりLyCORIS(LoHa)の方が学習速度も速くて精度も高かったかなHNでもうまくやればできるのかもしれないけどLoraの方が楽だった --
- 入れて見たけどよくわからないエラーが起きて止まってしまう…このエラーはどういう意味なの…
;raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)subprocess.CalledProcessError: Command '['C:\\AI\\sd-scripts\\venv\\Scripts\\python.exe', 'train_network.py', '--network_module=lycoris.kohya', '--pretrained_model_name_or_path=C:\\AI\\stable-diffusion-webui Sdv1\\models\\Stable-diffusion\\AnythingV5V3_v5PrtRE.safetensors', '--train_data_dir=C:\\AI\\lora_train_data\\train_dir', '--output_dir=C:\\AI\\stable-diffusion-webui Sdv1\\models\\Lora', '--caption_extension=.txt', '--shuffle_caption', '--prior_loss_weight=1', '--resolution=512,512', '--enable_bucket', '--bucket_no_upscale', '--min_bucket_reso=320', '--max_bucket_reso=960', '--train_batch_size=1', '--learning_rate=1e-3', '--lr_warmup_steps=0', '--text_encoder_lr=1.5e-4', '--unet_lr=1.5e-3', '--max_train_epochs=8', '--mixed_precision=fp16', '--save_precision=fp16', '--xformers', '--persistent_data_loader_workers', '--max_data_loader_n_workers=4', '--save_every_n_epochs=1', '--save_model_as=safetensors', '--output_name=lora_sample_hosi_loha', '--clip_skip=2', '--seed=23', '--network_dim=8', '--network_alpha=1', '--network_args', 'conv_dim=8', 'conv_alpha=1', 'dropout=0.2', 'algo=loha', '--max_token_length=150', '--cache_latents', '--gradient_checkpointing', '--lr_scheduler=cosine_with_restarts', '--lr_scheduler_num_cycles=1']' returned non-zero exit status 1. --
- 学習起動バッチの記述に間違いがあるときのエラーかな。例えば『学習のベースモデルファイル』なんかの自分で書き換えた部分のパスやファイル名に記述ミスがないかもう一度確認してみてください --
- 見事にモデルのパスの頭に"がついておらずでした!回答ありがとうございました! --
- 返信ありがとうございます。書き換えた部分のパスを見直してるけど頭に”はついている。VAEも指定していないから空でいいはず。あとは何が違うんだ… --
- パスは合っていたのですが、編集した行のset ckpt_file=の「=」の前後にスペースがあるとエラーになりました。削除したら問題なく動作しました。 --
- 試しにとしあきbatでサンプルの星を学習させたんだけど、出来上がったLoraをWebUIで読み込んでトリガーワード入れても全く反映されない。設定はまず全部デフォルトで行ってるんだけど、何が悪いんだろう? --
- あれは本当にテストのために用意されている素材のようなのでエラー無くLoRAが生成され、WebUI上で10枚出して1枚ぐらい星のような形が見えたらなら無事に学習済み…と認識して大丈夫なはずです。たとえば教師画像フォルダ名『10_hosi』を『50_hosi』ぐらいに書き換えて(つまり学習の繰り返し数を5倍にして)LoRAを出力してみてもまだ星が出ないなら俺にも理由が分かりません…。 --
- うーん、ステップ数増やしたり色々やったが何やってもだめだ。星の欠片も出てこない。VRAM8GBでスペックは足りてるはずなんだけどなあ。 --
- 初歩的なことですがトリガーワード以外にloraのタグも付けてますよね?そのタグもlora名と一致しているか、大文字小文字一致しているか。外したときと付けたときで出力される図像に変化があるか。学習したときに黒画面に学習の進捗のインジケータの表示がでてたら学習自体は成功してますよ。オプティマイザーを変更してたらぜんぜん学習できてないってことはありますが --
- t2iで画像生成するときにseed値は変えずにLoRAの強調度を0.1から1.0まで段階的にスイープして生成する方法ってないでしょうか?LoRA作ってて学習データの完成度を画像生成して確かめてるんですけど、ぶっちゃけ手打ちで書き換えるのがめんどくさいです。 --
- 初心者でしたがお陰様でloha作成できました、ありがとうございます。webuiでlocon,lohaの使用にはwebui>extensions>available>loadfromからa1111-sd-webui-loconをお忘れなく --
- dataset-tag-editor使ってタグ編集してるとしょっちゅうフリーズして最初からになるんやが他に良いツールないんかな --
- コメントしてから気付いたけど最近入れた自動翻訳系拡張と衝突してただけやったわ --
- VRAM4GでLORAって動かせますか?
もしくは動かせた人っていますか? --
- 超初心者キットが動かせん…
model is not found as a file or in Hugging Face, perhaps file name is wrong? / 指定したモデル名のファイル、またはHugging Faceのモデルが見つかりません。ファイル名が誤っているかもしれません:
何度見直してもこのエラーになる。
set ckpt_file="X:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion\xxxx.ckpt"
ここの記述ミスなのかと思うのですがコメントにすでにあるようなミスは確認できず何がいかんのかわかりません…
使用モデルがsafetensorsなのでckptの部分をそのままsafetensorsに書き換えたりはしています。モデルの名前もコピペして貼り付けているので間違いはないはず…空白等もないし…
X:の部分も触らなきゃだめだったりします?マジで誰か助けてくれ… --
- そこには使用するモデルへのフルパスを記述する必要があります。X: の部分は使っているストレージのドライブ名なので、もしご使用のストレージがCドライブならC: と置き換えて記述します。さて簡単にフルパスの取得方法のお伝えします。使用したいモデルファイルを右クリックして[プロパティ]を開くと、表示されたウィンドウの中段ぐらいに[場所]という項目があるはずです。その右欄に記されているのがモデルファイルの含まれたフォルダへのパスで、フルパスはそこにモデルのファイル名を足したものになります。仮にフォルダへのパスが 『C:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion』だった場合、そこに \ (ディレクトリの区切り文字。ここのコメント欄の都合上バックスラッシュですが実際は¥マーク(半角)を用います)を1文字足してからモデルのファイル名『aom3.safetensers』や『Basil_mix_fixed.safetensors』などを追記します。つまり『C:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion\aom3.safetensers』といった風の記述となります。この説明で伝わるといいのですが…がんばってください --
- 返信ありがとうございます!X:の書き換え、ご教授いただいたプロパティからのフルパス記述もコピペでやってみましたが駄目でした。
メモ帳で開いているのですが、¥マークはメモ帳では使えない?のでバックスラッシュで対応しています。
せっかく教えていただいたのに本当にお手上げです…一応、さっきは長くて載せなかったエラーっぽいものを貼っておきます
Traceback (most recent call last): File "C:\f73639 (1)\sd-scripts\train_network.py", line 773, in <module> train(args) File "C:\f73639 (1)\sd-scripts\train_network.py", line 152, in train text_encoder, vae, unet, _ = train_util.load_target_model( File "C:\f73639 (1)\sd-scripts\library\train_util.py", line 2799, in load_target_model text_encoder = pipe.text_encoderUnboundLocalError: local variable 'pipe' referenced before assignmentTraceback (most recent call last): File "C:\Users\PC_User\AppData\Local\Programs\Python\Python310\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "C:\Users\PC_User\AppData\Local\Programs\Python\Python310\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "C:\f73639 (1)\sd-scripts\venv\Scripts\accelerate.exe\__main__.py", line 7, in <module> File "C:\f73639 (1)\sd-scripts\venv\lib\site-packages\accelerate\commands\accelerate_cli.py", line 45, in main args.func(args) File "C:\f73639 (1)\sd-scripts\venv\lib\site-packages\accelerate\commands\launch.py", line 1104, in launch_command simple_launcher(args) File "C:\f73639 (1)\sd-scripts\venv\lib\site-packages\accelerate\commands\launch.py", line 567, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)subprocess.CalledProcessError: Command '['C:\\f73639 (1)\\sd-scripts\\venv\\Scripts\\python.exe', 'train_network.py', '--network_module=networks.lora', '--pretrained_model_name_or_path=', '--train_data_dir=C:\\f73639 (1)\\lora_train_data\\train_dir', '--output_dir=C:\\stable-diffusion\\stable-diffusion-webui\\models\\lora', '--caption_extension=.txt', '--shuffle_caption', '--prior_loss_weight=1', '--resolution=512,512', '--enable_bucket', '--bucket_no_upscale', '--min_bucket_reso=320', '--max_bucket_reso=960', '--train_batch_size=1', '--learning_rate=1e-3', '--lr_warmup_steps=0', '--text_encoder_lr=1.5e-4', '--unet_lr=1.5e-3', '--max_train_epochs=2', '--mixed_precision=fp16', '--save_precision=fp16', '--xformers', '--max_data_loader_n_workers=4', '--save_every_n_epochs=1', '--save_model_as=safetensors', '--output_name=lora_sample_hosi', '--clip_skip=2', '--seed=23', '--network_dim=8', '--network_alpha=1', '--max_token_length=150', '--cache_latents', '--lr_scheduler=cosine_with_restarts', '--lr_scheduler_num_cycles=1']' returned non-zero exit status 1. --
- '--pretrained_model_name_or_path='ってバックスラッシュがどうこう以前にモデルへのパスが1文字も入力できてないのでは。記述ミスでエラーが出ても '--pretrained_model_name_or_path=C:\\sd\\models\\aom3.safetensor' のように間違ったパスがちゃんと表示されるはずですから。メモ帳以外のテキストエディタやwindowsに標準搭載されているワードパッドを使ってもbatファイルを編集できませんか? --
- 変な文章が混じってしまいました。最後の一文は気にしないで下さい。つまりちゃんとパスが記述できていない可能性が高いのでメモ帳以外の別のアプリを試してみてはどうか…という提案でした --
- ファイル名が被った時に自動で付く(1)の前にスペースが入るので、それも消した方が安心だとおもいまんす --
- ワードパッドで編集してみても同じでした…もしかしてこっちのエラーが原因なのでしょうか?
W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'cudart64_110.dll'; dlerror: cudart64_110.dll not found I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'cudart64_110.dll'; dlerror: cudart64_110.dll not found: I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.WARNING[XFORMERS]: xFormers can't load C++/CUDA extensions. xFormers was built for: PyTorch 1.13.1+cu117 with CUDA 1107 (you have 1.13.1+cpu) Python 3.10.9 (you have 3.10.6) Please reinstall xformers (see https://github.com/facebookresearch/xformers#installing-xformers) Memory-efficient attention, SwiGLU, sparse and more won't be available. Set XFORMERS_MORE_DETAILS=1 for more details
なんかこれを見る感じxformersのバージョンとCUDAとpythonのバージョンがかみ合ってないとかですかね…たびたび本当にすみません --
- その種類のエラーは sd-scripts のクリーンインストールで環境を一新すれば解決すると思います。おそらくですが。しかしメモ帳やワードパッドを使ってbatのモデルパスを書き換えることが出来ないのは別の問題なんじゃないかと思います。でもどうなんでしょう…一応試してみてほしいです。sd-scripts をフォルダごと削除したあと install_sd_scripts.bat を実行して sd-scripts をクリーンインストールしてみてください。 --
- すみません、解決出来ました!パスが一文字も認識されない原因としては、
training_command_sampleの 書き換えここまでと書いてあるよりも下の欄の
--save_model_as=ckpt ^ をsafetensorsにワードパッドで書き換えたらパスが認識されて無事学習が完了しました。まさか欄外まで変えなくてはならないとは、、、まあ冷静に考えたら当然か。
素人がお騒がせいたしました。貴重な体験となりました。ありがとうございました! --
- accelerate configを実行し、質問に「This machine」「No distributed training」「NO」「NO」「NO」「all」「fp16」と回答したところ、最後の「fp16」と回答した後、FileExistsError: [WinError 183] 既に存在するファイルを作成することはできません。とのエラーが出てしまいます。対処方法があれば宜しくお願いいたします。 -- はぐれとしあき?
- マルゼン式って、10_maruzenと10_shobu clothesと10_mizugiの3フォルダを格納した1つのフォルダを指定して、1回学習を実行するんですか? それともそれぞれのフォルダごとに1回行って、計3回の学習をする感じですか? --
- 超初心者向け 5+0ステップで覚えるLoRA制作 (2023/3/31) に入っているバッチファイル。
sample_lohaもsample_loconも--network_module=lycoris.kohyaとなっています。 LoConで出す場合、ここを--network_module=locon.locon_kohya ^とすれば問題がないと書いてありますが、ここを書き換えると様々なエラーが出て学習できません。
どなたかLoConの学習方法をご教示いただけませんか?それとも現在のbatの設定でLoCon学習ができているのでしょうか?お願いします。 --
- すみません、自己レスですけど、"sd-scripts\LyCORIS\lycoris\kohya.py" の中で引数loraならLocon、LohaならLohaみたいな条件分岐ぽいのがあったので確認したら
sample_loconの方は、--network_args "algo=lora" になっており、sample_lohaの方は--network_args "algo=loha"^ になっていました。
これはモデルを設定する引数が変わったがコメントが以前のままであった、バッチは正常に動いていた。という認識でよろしいのでしょうか? --
- その認識であっています。詳しくはLyCORISのページを参照してほしいのですが3つの方式で生成できるようになったLoConの取り扱いに若干の混乱があり、付属の生成batの末尾付近にあるそのコメント文はそういう混乱期にメモとして書かれ、消し忘れられていたものです。ご推察の通り、付属のバッチでLoConを生成するとLyCORISライブラリを使う方式のLoConが出力されます --
- ご回答ありがとうございます。進化の早い分野だと情報の陳腐化が早くて大変ですね・・・ --
- wd1.5で学習すると毎回エラーでて始まらなかったけど「--v2」を足すだけでよかったんだね --
- Windows向け学習実行フロントエンドで作ったLoRAだとmodules.devices.NansException: A tensor with all NaNs was produced in Unet. Use --disable-nan-check commandline argument to disable this check.ってなって画像生成に使えないけど分かる方います?Windows向け学習実行バッチファイルでLoRA作ったなら問題ないんだけど --
- OrangeMix2でマイナーキャラのエロ出したいんだけど、学習モデルはOrangeMix2を使っていいんだろうか?それとも学習にオススメされてるやつを使うべき? --
- 基本同じモデルでやるのが基本…だが、おすすめのモデルでは上手くいかない事もあるし、好みのLoRAが使いたいモデルで相性が悪かったり、他のキャラで上手くいった学習が別のキャラでは上手くいかなかったりする。とにかく試すしかない。オプションは表記ミスあれば無効エラー出るから判ると思う。 --
- 過学習してるのか学習足りないかの判断ってどうやってしてますか?いまいち足りてんのか足りてないのかよく分かんなくて……何かやけに同じポーズばっかりになるのは学習素材の問題なんですかね? --
- Kyohya版で3060Tiを使用しLoraの学習を行おうとしたのですが、学習が始まった直後にLOC_
RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.21 GiB already allocated; 0 bytes free; 7.31 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALCONF
とのエラー構文が表示され学習が行えません…。
他の方からの情報を見る限りVRAM8gbでも動作する筈だと思うのですが自分は一体何を間違えてしまったのでしょうか? --
- 実行文:
accelerate launch --num_cpu_threads_per_process 6 train_db.py --pretrained_model_name_or_path=D:\stable-diffusion-webui\models\Stable-diffusion\AOM3\AOM3A1_orangemixs.safetensors --train_data_dir=D:\Lora_lerning\sd-scripts\train_data --reg_data_dir=D:\Lora_lerning\sd-scripts\reg_data --output_dir=D:\Lora_lerning\sd-scripts\output --prior_loss_weight=1.0 --resolution=512 --train_batch_size=1 --learning_rate=1e-6 --max_train_steps=1600 --use_8bit_adam --xformers --mixed_precision="bf16" --cache_latents --gradient_checkpointing --
- 環境が分からないから何とも言えないけどOSや他のアプリの描画にもVRAMは消費されるのでそういうバッドケースが積み重なると8GBでも空き容量が足りなくなるかもしれない。不要なアプリを閉じて試してみるのはどうだろう --
- 解決しました!うっかりNVIDIA Containerを閉じ忘れていたらしく、このソフトがVRAMを1gb近く占有していたみたいでした…
こんなしょうもない質問をして申し訳ありませんでした。回答して頂きありがとうございました! --
- 超初心者キットを使用させていただいているものです。training_command_sample_loha.batで実行したいのですが、手引きによると正規化画像フォルダは指定しなくてよいとのことだと思うのですが、正規化画像が見つかりませんとのエラーメッセージが出ている状態です。これはどうすればよいでしょうか…?初歩的な質問で申し訳ありません。 --
- 超初心者キットを使って、Step4までうまく行きました。Step5で設定書き換えて実行すると「UnboundLocalError: local variable 'log_with' referenced before assignment」と出ており、chatGPTにエラー文投げたところ
「ローカル変数 'log_with' が代入される前に参照されたことが原因であることを示しています。このエラーは、 'train_util.py' ファイルの prepare_accelerator() 関数の中で発生しました。…」
と言っています。 locon版・loha版両方で同じことになりました。なにか設定をおかしくしてしまったのでしょうか…? --
- 直近の更新で発生したバグらしい。sd-scriptsを最新版に更新すれば直った。 --
- 返信ありがとうございました!無事作成が始まりました。 --
- training_command_sample.batを実行してもraise subprocess.calledprocesserrorが出て学習ができませんでしたが、以下変数の"(ダブルクォーテーション)を削除したところ動きましたので報告しておきます。
変更前
set ckpt_file="絶対パス"
set output_path="絶対パス"
変更後
set ckpt_file=絶対パス
set output_path=絶対パス
りーどみー.txtの通りに""で囲って動く人が多数?かと思いますが、詰まったひとがいれば参考にしていただければと思います。
※以下どうでもいい話です
powershellから別の環境を作り'(シングルクォーテーション)で絶対パスを囲って上記変数に格納しtrain_network.pyを実行したところ動作を確認しました。
両環境のtrain_network.pyを見ても違いが見つからず、原因がわかりません。
自分のPythonが3.10.9なのが原因でしょうか(りーどみー.txtでは3.10.6推奨)
パスの指定が共通の記法にならない原因がわからず困っています。。。(とりあえず動いてはいるので良いのですか) --
- トリガーワーズをいちいちcivariで確認するのめんどいですけど、何か方法ありますか? --
- LORAの名前をトリガーと同じに変えてしまうとか。適用量の数値も名前に追記しておく。あるいはサムネイルの画像をうまく生成できたときのやつに変えておけばそれをpng infoにロードそて参考にできる。あとはサムネイルの右上クリックしてでてくる学習メタデータで最頻度のタグワードが一番上にでるのでそれがだいたいトリガーワードになってる --
- 特定の絵柄で特定のキャラを生成したい場合、dreamboothで学習データごと作るのか、train-toolでLoRaファイルを作るのではどちらが良いのでしょうか --
- Dreamboothは学習時間かかるし効果が薄い、ファイルサイズ大きいのでやるメリットないと思います --
- 生成しようとするとmodel is not found as a file or in Hugging Face, perhaps file name is wrong? / 指定したモデル名のファイル、またはHugging Faceのモデルが見つかりません。ファイル名が誤っているかもしれません。と出てきます。クリーンインストールも試しましたが効果なかったです。この場合どうすればよいでしょうか。何か確認するべきファイルの場所等はありますでしょうか。 --
- モデルの名前を直接入力していませんか? そのモデルのファイルパスを入力してください。C:\toshiaki\Stable-diffudion-webui\models\Stable Diffusion\AbyssOrangeMix などです。 --
- 解決しました。教えていただきありがとうございます。 --
- 「kohya_ss GUIを利用する場合」の導入方法の「2.学習環境&GUI機能のインストール」の4行目の仮想環境を起動するコマンドの最初の「¥」はいらないのかんじで大丈夫ですか? --
- それで大丈夫です。
あと最新版だとPowerShell使わずにbatファイルで導入するように変更されてたので導入手順を更新しやした。 --
- gradient_checkpointingをsdscripsにどうやって入れる?のでしょうか・・・ --
- '--train_data_dir' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。って表示されてしまいます。どうすればよいでしょうか? --
- 全部はしらない、知ってるのはとしあきバッチだけ。①フォルダーは半角スペース禁止。日本語も避けた方がいい...かな?(ただしtrain_data_dirの中だけは半角スペースok)Program Files (x86)に入れてる人は速攻移動させましょう
②バッチファイルをダブルクリックではなく、CMDを立ち上げ、CMD内でcreate_json.batとかloha.batとかのあるフォルダへ移動しそこから.\create_json.batとかのコマンドをタイプして起動させる(CMDの立ち上げ方、移動の仕方はAI chatかgoogleに聞いて)
③scriptsが壊れてるかもしれないから、1度scriptのフォルダを消して、再度scriptを入れ直すといいかも。https://wikiwiki.jp/sd_toshiaki/LoRA#z03bbbb9辺り参照。。
④python3.10.6とpipは導入されてる?(それぞれの導入の仕方やバージョンの確認はAIに)pipはアップデートしないでok。⑤りーどみー.txtとかの上にバッチファイルを落として開き、その中のpathの宛先は本スレ情報とあってる?set sd_path=".\sd-scripts"とかsetimage_path="%~dp0\lora_train_data\train_dir"など。画像と本スレで書いてあることが違う時は、本文に書いてある方が正しいみたい
⑥教師画像は日本語名や全角にしていない?名前つけないで1,2,3,4,.......にしてあるかな?
⑦教師画像とタグのtxtの数は合ってるかな? --
- 以前気付いてる人いたけどバッチ増やしすぎると仮想メモリ使い始めて逆に遅くなるっぽい --
- 今日「超初心者向け 5+0ステップで覚えるLoRA制作 (2023/3/31)」の所で実装して、無事1つLoRAファイルができました。
ですが、次の違うLoRAを作ろうと、lora_train_data\train_dir内の10_aaaフォルダをリネームして10_bbbにした所、「画像がありません」とエラーが出てしまいました。
エラーを見ると10_aaaの中のzzz.jpgファイルがない記述のエラーでした。(10_bbbに画像は入れています)10_bbbを10_aaaに戻してみましたが、同様に10_aaaの中のzzz.jpgファイルがない記述のエラー内容がでてしまいました。再起動やアップデートを行いましたが、改善しませんでした。
chatGPTに全文入れて聞いてみましたが解決しませんでした。ご存じのかたいればお力添えいただけたら幸いです。
エラーコードは下記です。
assert abs_path is not None, f"no image / 画像がありません: {image_key}"AssertionError: no image / 画像がありません: F:\sd\sd_learning\lora_train_data\train_dir\10_aaa\xxx.jpg --
- すみません、自己解決しました。create_json.batを実行し、marge_clean.jsonを再生成したら実行できました。
ですが、training_command_sample_loha.batの中でset json_file="%cd%\marge_clean.json"と指定しているのでそこで再生成する流れなのかなと思っていたのですが、この部分を改善すればtraining_command_sample_loha.batを起動するのみで次のLoRAが作れるようになるでしょうか。 --
- かなり複雑な質問なのでちゃんとした解答が出来ているか分かりませんが。メタデータの出力をLoRAの生成作業のなかで済ませたいというのなら create_json.bat の18行目『set json_path=%~dp0』の記述がある行から51行目(ぐらい)の『python finetune\clean_captions_and_tags.py "%json_path%\marge.json" "%json_path%\marge_clean.json"』までの34行分(ぐらい)のスクリプトを training_command_sample_loha.bat の 『set json_file= "%cd%\marge_clean.json"』 の記述がある行よりも上の部分に移植すればそのように動作すると思います。 --
- 詳細の行数や工程まで教えていただきとても助かりました、早速試してみます!ご返答いただきありがとうございました! --
- すみません書き忘れていました。移植する場所はset json_file=...のすぐ上が良いと思います。当該スクリプトはローカル環境変数のsd_pathとimage_pathを参照しているため、そのふたつの変数宣言文より前にスクリプトを書いてしまうと未定義の変数を参照しようとしてエラーが出てしまいます。 --
- お返事が遅れました!検証・修正案までいただいて改めてありがとうございます! --
- LoRA_UIのオプティマイザ引数を複数書くのは、どうすれば良いのですか?実行するとエラーが出ます。””で囲むとパーサーでコンマ分離されるからかな? --
- 絵師再現LoRaを使用しているのですが、その絵柄に寄せる事ができません。パソコンのスペックの問題ですかね?ちべたいの作例などを試しもしました。 --
- gradient_checkpointingオプションの付け方をお教えくださいませ --
- としあきbatが欲しかったのですが、再アップしていただけませんか...。今日の今日公開停止になったようで...。 -- りて?
- 私も欲しかったのですが、LyCORISのページの「学習バッチ LoHa版」でうまくいきました。成功したのはLoHAであってLoRAは試していません。環境的な差は「pip install lycoris_lora」でLyCORISを追加しただけだったと思います。 --
- 実行するときネット接続ないとエラーになりますが、どこに繋いでるのでしょうか? --
- 状況によりますが、十分な環境構築が済んでいるなら、Python関連のバージョンチェックだけが行われるはず。エラーは出ても注意喚起のみで停止はしないです。環境構築はまだなら、学習に必要なプログラムが自動ダウンロードされると思います。 --
- どこかに教師画像とか情報アップしたりなんだりしてないなら安心ですが・・・ --
- 超初心者向けのhosiのサンプルの生成すら満足にできず自作LORAはあきらめました --
- 学習を実行すると、.txtファイルを画像のファイル名と同じ名前で同じフォルダに作成しているのに、neither caption file nor class tokens are found. と出るのですがどうすればよいでしょうか?一応それでも学習は進みます。 --
- もしそれで学習できているなら、気にすることはないと思います。
それでもLoRA完成品に問題があるなら、ディレクトリに問題があるかもしれないので、構成例を詳しく教えて下さい。train_dir
├ 10_AAA
├ 1_BBB
あと、エラー文のスクショをお願いします(DB形式かファインチューン形式が気になる)。助けになれるかは知らないですけど。 --
- 解決しました。.tomlファイルにcaption_extension='.txt'を記述してなかっただけでした。お騒がせしてすみませんでした。ちなみに、としあきbatは使用せずにDB方式で学習させようとしてました。 --
- 教師画像の1.ピクセル数、2.正方形がいいのか、3.アスペクト比が違うのが混ざっててもいいのか、背景は白がいいのか写真のままでいいのか、とか分かると有り難いです・・・ --
- どれで何を学習するかによるけど、例えば現状一番良く使われてるsd-scriptsでLoRAを作るなら、--enable_bucketでバケットを有効化すれば全部勝手に調整してくれるので、どれもそんなに気にしなくてOKだと思います。ただ、過剰に大きすぎる(縦横4000pixel超えとか)とエラーが出ることもあるらしいので、そういう画像はちょっと小さくした方がいいかも。背景はたくさんの画像でそれぞれバラバラならそのままでも良いですが、変に特定のものに偏ってるとか、学習画像自体が少ないなら抜いたほうが良さそう(経験談)。とりあえず背景ありでやってみて、背景の名残みたいなのが出てくるみたいな違和感のある結果なら抜いてみてはどうでしょうか。とにかくやってみるのが大事。 --
- サイズと背景加工した方がいいのはDreamBoothの方だと聞いた。全部512で学習してるらしい --
- そこにセオリーはないでしょう。黎明期なんだから動けば良い。目標再現度は人によって違うので議論は難しい。
バケットサイズの定義にもよる。解像度拡大すれば、学習できる情報が増える反面、それが過学習にトリガーになる可能性がある。学習時間が増えればとしからクレームがくる。
それは誰も検証できていないし、検証するよりも、LoRA以外のもっと良い学習方法が確立されていくのだから、する必要もないです。動きさえすれば良いです。
なので、期待するような情報は、多分積極的には追記されないかな。 --
- すみません、としあきbat(超初心者向けLoRA導入セット)が欲しいのですが。どなたか譲ってくださいませぬか。 --
- ファイル自体は再配布おkらしので誰か再配布してくださると助かります。 --
- パラメーターのページにある目標学習率とか目標学習度ってどこで把握すればいいんでしょうか? --
- としあきbatステップ①の画像のタグ付けなんだけど一括ディレクトリで処理するとinput path is not a directoryで処理できない。単一処理だとワードは出てくるけど、画像フォルダにtxtが出てこない。 Sd-Scriptsのインストールが間違ってる? --
- 直リンの定義を知らず、一時的にとしあきbatをアップしてすみません。今は削除しました。 --
- (つづき)特に前回削除時と同じURLだったのがまずかったです。 --
- 設定詰めたのが上手くいかない一方、本番前のお試しで作ったのが望外のいい出来になったりとぜんぜん分からない、俺たちは雰囲気で学習をやっている。 --
- kohya_ssを導入してSource Modelタブから学習に使うモデルを選ぼうとしたのですが、モデルの置いてあるファイルに移動したのに何故かモデルが表示されません…
使う予定だったモデルはAnythingV5V3_v5PrtRE.safetensorsですが何か他に設定しないといけないのでしょうか? --
- フォルダ名に指定したプロンプトはcaptionに追加して学習されるのに最初からcaptionに含める意味ってなんですか?このことは氏のnoteで明示されてますけど --
- としあきbat(超初心者向けLoRA導入セット)の再配布おねがいします --
- としあきbatのテストの星や、civitaiでダウンロードしたLoRAは反映されるのですが、自分で作ってみたLoRAを使ってみても全く変化しません…この場合、LoRA制作の過程にミスがあるだけでしょうか? --
- ご質問ですが、Lora学習のはじめにネット接続しにいくのですがこれってどこかに何かアップしてます?例えば版権みたいなものだったりあまり接続されると嬉しくない教師素材もあるので、皆さん気にしてないのかな、と・・・ --
- としあきbatでmin_snr_gammaと min_snr_gamma=%min_snr_gamma%付け足してlora作っても最後に”内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチファイルとして認識されていません”とでるんだけどたすけてとし --
- フロントエンドでfine tune方式やろうとしても--in_jsonが指定されなくてDreamBooth方式で認識されてる? --
- network_weights="再開したいファイルのフルパス"で指定して、元々のパラメータのステップ、学習率を1/10にして再学習させて精度あげたいんだけど、どうも新しく学習してるような結果しか出さない。条件他にあるか、パラメータとか間違ってますか? --
- 最近ようやく学習に手を出し始めたんだけど、一番簡単だと言われてるキャラ再現のLoRAすら全然うまくいかない……。ここの学習成果の設定数値を参考にして教師画像50枚程度でやってるんだけど、生成される画像同士はちゃんと似たようなキャラが出てくるのに、そのキャラが再現したい教師画像のキャラに似てない(雰囲気だけは辛うじて似ている)これは教師画像の質や数の問題なのか、それとも学習設定の問題なのか…… --
- 参考値は意味ないぞ。俺も色々実験してみたけど、簡単なキャラや衣装が複雑なキャラでも同じ枚数や設定でやっても複雑の方が進まないね。複雑の方は覚えることが多いのか過学習気味になりやすいからそれを見ながら学習率を調整していくしかないんだよな。 --
- 「顔は覚えるのに服は覚えず、服まで覚えさせると顔が過学習する」みたいなの結構ある。最初は過学習覚悟で作って適用時に弱めたりBlockWeightで調整するとかでもいいかも。 --
- LoRA毎に10以上ある数値設定の最適値探るのはさすがに現実的ではないかな… --
- マジで?使用頻度の高そうなLoRAは全部調整してる。慣れたらそんなに手間じゃないし、グチャグチャになるオーバーフィットLoRAが綺麗に描画されるようになると気持ちいいよ。本当にこれが最適解なのか?っていう疑念は常に付き纏うし、どう足掻いても無理な奴もあるけど…。 --
- 質問なのですが、学習に正則化画像を用いない場合繰り返し数を1以上にする必要はありますか? 以前拝見した記事には、繰り返し回数は正則化画像と教師画像の枚数を合わせるために指定するものだと書かれていたのですが、本当かどうか自力では判別ができず…。どなたか教えていただけますと幸いです。 --
- RadeonでもLoRAの学習はできますでしょうか?
Radeon 6600XT VRAM 8GBです。 --
- Loraのプロンプトに書く名前が同じなのですがどうすれば名前を変更できるでしょうか? --
- PS F:\hitiokiwa0531\sd-scripts> .\venv\Scripts\activate(venv) PS F:\hitiokiwa0531\sd-scripts> accelerate launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=X:F:\stable-diffusion-webui\models\Stable-diffusion\AnythingV5_v5PrtRE.safetensors --output_dir=F:\TrainingData\outputs --output_name=biko --dataset_config=F:\TrainingData\datasetconfig.toml --train_batch_size=1 --max_train_epochs=10 --resolution=512,512 --optimizer_type=AdamW8bit --learning_rate=1e-4 --network_dim=128 --network_alpha=64 --enable_bucket --bucket_no_upscale --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --lr_warmup_steps=500 --keep_tokens=1 --shuffle_caption --caption_dropout_rate=0.05 --save_model_as=safetensors --clip_skip=2 --seed=42 --color_aug --xformers --mixed_precision=fp16 --network_module=networks.lora --persistent_data_loader_workersFatal error in launcher: Unable to create process using '"F:\????\hitiokiwa0531\sd-scripts\venv\Scripts\python.exe" "F:\hitiokiwa0531\sd-scripts\venv\Scripts\accelerate.exe" launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=X:F:\stable-diffusion-webui\models\Stable-diffusion\AnythingV5_v5PrtRE.safetensors --output_dir=F:\TrainingData\outputs --output_name=biko --dataset_config=F:\TrainingData\datasetconfig.toml --train_batch_size=1 --max_train_epochs=10 --resolution=512,512 --optimizer_type=AdamW8bit --learning_rate=1e-4 --network_dim=128 --network_alpha=64 --enable_bucket --bucket_no_upscale --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --lr_warmup_steps=500 --keep_tokens=1 --shuffle_caption --caption_dropout_rate=0.05 --save_model_as=safetensors --clip_skip=2 --seed=42 --color_aug --xformers --mixed_precision=fp16 --network_module=networks.lora --persistent_data_loader_workers': ?????????????????? powershllで自分のイラストを学習させようとするとこのエラーが出ます ???の意味が分かりません助けてください システム環境の設定変えたりほかのバージョンのpython削除したりしましたが解決しません --
- Fatal error in launcher: Unable to create process using '"F:\????\hiti...→フォルダ移動のせいかpythonが見えなくてエラー、 あと--pretrained_model_name_or_pathがX:F:\になってるのも変。sd-scripts移動させずにインストールし直してみたら --
- LoRA_Easy_Training_Scriptsで学習しようとしたのですが、
TypeError: float() argument must be a string or a real number, not 'NoneType'
というエラーが出て学習を中止してしまいます。
教師画像の読み込みなどは出来ていると思うのですが、何度やってもこのエラー文が出てきてしまいます。解決法があれば教えて頂きたいです。 --
- kohya-ss氏のLora作成スクリプトを使用すると300MBぐらいのLoraとしては大きなサイズになって申し訳ない気持ちになります。しかもサイズだけでかくて対して優れたLoraじゃないし。
学習数、正則画像数やリピート、解像度のパラメータをいじってもLoraのデータサイズには関係なさそうでした。Loraのサイズに影響のあるパラメータについてご存じの方はいらっしゃいますか?グラボ性能が関係してる? --
- kohya ss guiなら、dimを増やすとデカいファイルになる --
- dimですか。ちょっといじってみます。情報ありがとうございます。 --
- Lora名(ファイル名)についてです。作ったLoraの中から良い感じの出来のやつのファイル名をわかりやすいものに変えて使っていたんですが、いま、花札ボタンから呼び出してみると変える前の元のファイル名(Lora名)で呼び出されました。今まで間違っていたのかと思ったんですが、今までの方法であきらかにloraが機能しているので困惑しています。 --
- 出先のスマホからなので雑な説明になってしまうけど。
v1.2.0か1.3.0辺りで花札の機能改良があってね。LoRAのファイル名だけでなく、LoRAのメタデータに含まれる何ちゃらっていうパラメータでも呼び出し可能になったんだよね。
それと、これに伴って、花札からクリックでプロンプト欄に挿入する際に、ファイル名を挿入するのか、それともLoRAのメタデータのパラメータ名を挿入するのかを、1111のSettings→Extra Networks辺りで選択可能になった。一度確認してみておくれ。 --
- 確認したところエイリアスを呼び出す設定になっていました。
loraファイル名での画像管理がややこしいことにならずに済みそうです。情報ありがとうございます。 --
- LoRA_Easy_Training_Scripts(GUI版)でAdaFactorがエラー吐いて動かなかったから、ソースコード無理矢理弄って動かしたけど、バグなのか設定ミスなのかわからない…。一応、エラーの原因はtrain_unit.pyのoptimizer_kwargsに(多分)AdamW.__init()__で使ってる余計な引数(betas)が残ってるせいだと思う。 --
- 同じエラーにハマっているのですが、差し支えなければどのようにコード修正したか教えていただけないでしょうか…? --
- 違う方法ですが、自己解決したのでメモです。学習スタート直後にコマンドを一時停止して、runtime_storeに生成されるconfig.tomlのファイルを開く→betasの引数を削除して保存→学習再開、でAdafactorでも学習させることができました --
- 「"no kernel image is available for execution on the device"とエラーが出て止まる」の件にて「sd-scriptsの実行オプションから"--use_8bit_adam"を外して実行すると解消する」の具体的な対処法を発見しましたので記載します。
学習実行の際に「accelerate launch ~」以下に記載する「--optimizer_type=AdamW8bit」という部分をまんま削除して実行するとすんなりいきます。
※ 私は「テルルとロビン【てるろび】旧やすらぼ」氏がYouTubeに投稿しています「日本一わかりやすいLoRA学習!sd-scripts導入から学習実行まで解説!東北ずん子LoRAを作ってみよう!【Stable Diffusion】」を参照しながら解決したのでこちらの動画手順でしか解決法を発見していません。ご了承ください。※
GPUスペック:Geforce GTX 1060 6GB -- スーパーアルティメットギガントユニバーサルハイパーウルトラブリザード初心者?
- 導入のスクリプト打ち込みで「\」がブラウザでは入力できるのにwindows powershellでは打てずに導入できないんですが解決方法知ってる方お教えいただけないでしょうか。コピペ失敗全角から再変換など試しましたが全部エラー吐きます。 --
- 半角の「¥」をつかうか、あるいはpower shellのフォントを英語にすれば入力できるのではないでしょうか。 --
- kohya_ss GUI release v21.7.16で入れ直し何回かやってたらプラウザが反応しなくなったんだがなにを入れ直せばいいんだろうか?PythonやGIT入れ直してもプラウザが反応しない Chromeが駄目なのかと思って火狐とかでやっても反応しない。AUTOMATIC1111は動く --
- kohya_ss GUI v21.8.1で Train Modelを実行すると途中で TypeError: memory_efficient_attention() got an unexpected keyword argument 'scale' というエラーが出て止まってしまいます ChatGPT先生に聞いてエラーの内容は理解できたんですが(memory_efficient_attention() という関数にscaleという引数渡したら未定義)解決方法がわかりません。どなたか解決方法知ってる方お教えいただけないでしょうか。 --
- GTX16**シリーズ(GTX1660,GTX1660Ti,GTX1660Super)所有の方への情報共有。
以下の設定でずんことオリジナル画像のLoRA化が出来た。
PC環境 Win10
AMD Ryzen5 3600X &-Core 3.79GHz
RAM 16.0GB
NVIDIA GeForce GTX1660(無印)
Stable DFとKyhyaSSは標準導入(テルル参考)。AI絵は作成できていること。メモリ軽量化とページングファイルの問題も解決していること。
1.KyhyaSSのsd-Scripts再導入(accelerate config)で fp16→no
2.素材画像フォルダのあるcommand line.txtで --mixed_precision=no
3.同様にcommand line.txtで
--max_train_epochs=10
--resolution=400,400
--optimizer_type=AdamW8bit(変更なし)
--learning_rate=1e-3
--network_dim=8
--network_alpha=1
--seed=23
これで、ずんこLoRaは出来た。オリジナルも十分再現できた。
以上報告まで。 --
- 超初心者向け5+0ステップで4までやったんですがその次の実際のtrainのコマンドが分からず進めません。Lotraining_command_sample_loha.baの中身が知りたいです。ご教授お願いします。 --
- ご質問の趣旨がわかりかねますので、コマンドのどこなのか、もう少し詳しくお願いします。学習モデルと出力先の指定だけして実行することはできましたか。念のため:batファイルをメモ帳のウィンドウへドラッグ&ドロップすれば"テキストエディタで開く"ことができます。 --
- 失礼しました。個人的な問題で返事が遅れてしまいました。質問の仕方も悪く余計な手間を掛けさせてしまいすみません。すでに記事修正されておりますが、SD ScriptとLoHaのインストール、モデルと学習データの準備まででき実際にtrainを実行する段階まで進めたのですがzipファイルで配布されていただろう学習コマンドのbatファイルの中身が分からず困っておりました。新しい記事で学習時のコマンドやオプションについての説明がありますのでそこを試してみたいと思います。最後に返答ありがとうございました。 --
- kohya_ss GUI release v21.7.15とか入れたいんですが、ダウングレードって「git checkout」でやればいいのでしょうか? --
- 超初心者向け 5+0ステップで覚えるLoRA制作 (2023/3/31)はまず目が行きがちな情報なんですが、今、としあきbatはないので修正が必要です。
ということでちょっと修正作業します。文意はそのままにします。既存の読者さんは最初は戸惑うかもしれませんが、よろしくお願いします。 --
- 超初心者向け5stepのステップ5目で学習bat作成ページのbatコマンドをコピーして利用した際「raise subprocess.CalledProcessError」が出ました。確認したところVAEファイルを利用しない際はsetコマンドをremのままにすればよいとのことですがaccelerateコマンドの引数に残っている「--vae=%vae_file% ^」が引っかかるようです。「--vae=%vae_file% ^」を削除したところ学習が始まりました。この引数を無くして影響があるかまだ学習データ作成して利用してみていないので、もしかすると暗い画像になったりするかもしれませんがとりあえず。参考になれば幸いです --
- 体験談としての情報提供ありがとうございます。
--vae行は削除しても問題ないですよ。それが正解です。暗い画像になるかもですが、使っている事前モデルによっては既にVAEマージ済みだったりするので、影響は軽微かもしれません。
bat作成ページの注釈に記載の通り、vaeを使わないときは、「--vae=%vae_file% ^」を削除するよう指摘していますので特に訂正はしません。
理想はVAE指示有りとそうでないときで、自動分岐できれば良いのですが、それを満たすシンプルbatプログラムを掛けないので、やむなく妥協している次第です。 --
- 教師画像数多くなってきたのでリピート数減らしたいんですが、10から減らすときはファインチューニングも無効にしないとだめでしょうか。 --
- リピート数にファインチューニングは関係ないよ。 --
- ありがとうございます。単純にリピート減らしてフォルダ名の数字変更します --
- すみません。cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.pyのコマンドを入力すると、「cp : パス 'C:\Users\shun0\bitsandbytes_windows\cextension.py' が存在しないため検出できません。発生場所 行:1 文字:1+ cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bits ...+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ + CategoryInfo : ObjectNotFound: (C:\Users\shun0\...s\cextension.py:String) [Copy-Item], ItemNotFoundExce ption + FullyQualifiedErrorId : PathNotFound,Microsoft.PowerShell.Commands.CopyItemCommand」というエラーが出てしまい、途方に暮れています。何が原因なのでしょうか。 --
- 何が原因と言われてもファイルが無いからとして言えないよ
コマンドの実行場所は間違えていないかい? --
- ページ行数制限1600行に近いので、ページの一部を別ページに移管しますね。 --
- 「LoRA/学習方法」ページを新設して移植完了。
既存のコメントは量が多いので、両ページに置きっぱなしにしています。ページの趣旨と関係ないコメントが表示されていますが、ご容赦ください。 --
- コメント欄が長いので、ページの閲覧性の都合により、最新表示件数を10→5件に変更しました --
- 「'accelerate' は、内部コマンドまたは外部コマンド、~~」これが出る人はsd-scriptsのセットアップ後にフォルダーを移動している可能性がある。venvだから移動してもいいんじゃねーの?って思ったけどそうではないみたい。 --
- としあきbatの件で、そのbatファイルを探す方が様々なスレに出没しては、スレ住人を困らせるケースが定期的に発生している様子です(1か月置きに過去3回見ました。文面を見る限りこのページからとしあきbatを知ったようです)。
余所に迷惑を掛けないように、コメントアウトしてもよいでしょうか?
それでも大丈夫なように、今日までsd-scipts公式のインストール方法を整理してきたつもりです。 --
- たぶん今は代替があるので問題ないかと --
- としあきbatの項目は、タイトルのみ残して削除しました。アーカイブとして「としあきbat」に残しています。 (紹介のみでツール添付は無し)--
- kohya_ss を導入する際はPython 3.10.9 以上が必要なので注意(3.10.6とかだと無理) --
- ツールのアプデでLoraじゃなくてベースのチェックポイントしか作れなくなったのね --