- 自分みたいな初導入奴はcpのやつ\venv\Lib\site-packages\bitsandbytes\cuda_setupまでのフォルダを作っとく必要があったのとaccelerateをインストールしとく必要があった。 -- 2023-02-10 (金) 12:28:13
- <.\venv\Scripts\activate>の行で「このシステムではスクリプトの~」でエラー出て怒られたけど<Set-ExecutionPolicy RemoteSigned -Scope CurrentUser -Force>実行したら通ったのでメモとして残します。(参考:https://www.python.jp/install/windows/venv.html)
-- 2023-02-12 (日) 03:31:40
- 学習再開用のbatサンプルもあったらほしいな -- 2023-02-19 (日) 19:05:32
- NMKD版はLora使えないんかな (´・ω・`) -- 2023-02-19 (日) 22:15:03
- paperspaceで何度やってもCUDAがout of memoryになって悩んでたんですけど普通にbatchsizeを1にしたら行けたので一応報告しておきます。あと何故かSD2用のLora作ったらなぜか花札のマークからは適用されなくてadditional networkのExtensionからなら適用されました。 -- 2023-02-24 (金) 17:34:50
- pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116でエラー出たんだがpythonが3.10でなく3.11で入っていたのとCUDAが11.8のみで11.6を別途インストールする必要があった
。前提条件ちゃんと読むんやでとし君! -- 2023-02-28 (火) 22:21:24
- LoRA_Easy_Training_Scriptsからlora_train_command_line.pyが消えてたので「Linux環境で動かす場合」の手順をなんとかしないといけなくなってしまった -- 2023-03-03 (金) 21:24:00
- Linux環境の今のやり方だと最新版は動かせないってこと? -- 2023-03-05 (日) 13:51:59
- 「sd-scriptsのインストール」「実行用関連スクリプトのダウンロード」まではできたが、run_popup.batを実行すると「指定されたパスが見つかりません。」と出る -- 2023-03-07 (火) 17:34:51
- run_popup.batの中身は編集しましたか? -- 2023-03-07 (火) 21:20:11
- Dockerからsd-scriptsを実行したらtriton使えて高速化したりするんかね -- 2023-03-07 (火) 21:36:32
- ファインチューンで「野球帽」を覚えさせたい時、BLIPのキャプションで野球帽には触れず「赤い服の女が立っている」だけ書かれてたら「野球帽を被った赤い服の女が立っている」と書き直した方がいいんでしょうか?あと長い髪を剣だと誤認したら訂正やその文言を削除した方がいいんでしょうか? -- 2023-03-08 (水) 13:38:13
- 質問が2つあります。
一つ目です。「「sd-scriptsのインストール」「実行用関連スクリプトのダウンロード」まではできたが、run_popup.batを実行すると「指定されたパスが見つかりません。」」という現象が私にも起こっています。下の回答で「run_popup.batの中身は編集」とありますがそれはどういうことでしょうか?何をどう編集すればよろしいのでしょうか?
2つ目です。sd-scriptsのフォルダはstable-diffusion-webuiとは全く関係ないところに存在していますがこれで問題はないのでしょうか?
回答いただければ幸いです。幾分初心者でまだまだプログラムに対する理解すらない者でして愚かな質問をしていることは理解しておりますが、よろしくお願いいたします。 -- 2023-03-08 (水) 21:10:58- 上の者です。「Starting popup training...指定されたパスが見つかりません。'accelerate' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。続行するには何かキーを押してください . . .」と出ます。上の方が「自分みたいな初導入奴はcpのやつ\venv\Lib\site-packages\bitsandbytes\cuda_setupまでのフォルダを作っとく必要があったのとaccelerateをインストールしとく必要があった。」と言っていたため、色々調べて試しては見たのですができませんでした。どなたか教えていただければ嬉しいです。 -- 2023-03-09 (木) 19:58:39
- venvの作成に問題があると思われるので、まずsd-scriptsフォルダ内にvenvフォルダがあるかどうか、その中にscriptsフォルダが有るかどうかなど確認してみてください。 -- 2023-03-10 (金) 11:44:41
- 私も「'accelerate' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。」で行き詰りました。 -- しぐにゃも? 2023-03-10 (金) 12:47:33
- 続きです。venv → scriptsフォルダはありました。
その中に下記の3つがありました。
・accelerate.exe・accelerate-config.exe・accelerate-launch.exeはありました。
この状態でsd-scripts → LoRA_Easy_Training_Scripts → run_popup.batを実行すると同じエラーが出ます。
CPU,Ryzen7 / GPU 1660Ti(6G) / python 3.10.6を使用。 -- しぐにゃも? 2023-03-10 (金) 12:56:42 - 「venvの作成に問題があると思われるので、まずsd-scriptsフォルダ内にvenvフォルダがあるかどうか、その中にscriptsフォルダが有るかどうかなど確認してみてください。」確認したところ、存在はしていました。しかし上の方と同様動きません。 -- 2023-03-10 (金) 17:09:08
- 今、install_sd_scripts_v5.batを使って入れ直したところ、'accelerate'のエラーが出なくなりました。
学習を行う
→ run_popup.bat
→ 「Do you want to run multiple trainings? keep in mind that this will prevent any more popups as it will load according to the json files input」の表示が追加
→ 「Do you want to load a json config file?」までは動作確認済み。 -- しぐにゃも? 2023-03-11 (土) 11:51:05
- popup.batで「Starting popup training...指定されたパスが見つかりません。'accelerate' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。」になるのは、venvのパスが間違ってるのでvenv有効化出来ず、故にaccelerateコマンドも使えないのでこういうメッセージが出る。4行目を「call venv\Scripts\activate」にしたらとりあえず動いたけど、なんかまた別の場所に起因するエラーが起きたんで、とりあえずこの解決方法は「popup.batを開いたら先述のエラーが出た」という場合だけの解決方法ということで -- 2023-03-10 (金) 22:03:00
- 仮想メモリの必要量はCPUコア数に応じて増えるようです。6コア(HT)だとメモリ32GB+仮想メモリ10GBでも不足するが、BIOSで2コア(HT)に絞るとメモリ32GB+仮想メモリ1GBで足りる。おまけに学習時間自体にCPUコア数はほぼ無関係。完全に罠。 -- 2023-03-10 (金) 22:19:27
- ↑BIOSでコア数減らすなんて極端なことをしなくても、--max_data_loader_n_workers=3 とすればいいだけなんだけど -- 2023-03-10 (金) 22:58:16
- 「低スペグラボ GTX1660Ti 6GB で LoRAで画像を学習させるときにハマったこと」という記事がqiitaにあるわね。ArgsList.pyのself.mixed_precision: str を "no"にしないとダメらしい -- 2023-03-11 (土) 00:12:54
- ここのwiki参考にしてLORAやら何やら入れるの何回も失敗しまくって「LORA インストール」でググったサイト参考にしたら簡単に入れれたんだよなあ……このページの「実行用関連スクリプトのダウンロード」とか結構滅茶苦茶なことやってるし、俺が書き直しても間違ってそうだから詳しい人にもうちょっと頑張って書いてほしいという気持ちはある。 -- 2023-03-12 (日) 11:07:57
- 実行じゃなくて学習だからあってる -- 2023-03-13 (月) 19:22:35
- ブログに「GTX16xxでの成功例があれば報告してください」と書かれていたので報告です。1660Ti(VRAM 6G)で動きました。反映も確認済み。
ただし、net_dim、alpha、train_resolutionを下げる必要がありました。
net_dim=110、alpha=55、train_resolution=400まで動作確認済み。
net_dim=128、alpha=64、train_resolution=512などにするとGPUメモリー不足のエラー(LoRA CUDA out of memory)が出て止まりました。 -- しぐにゃも? 2023-03-13 (月) 22:51:45 -- network_moduleの書き換えファイル名、書き換え行数を掲載して貰えませんか?readmeも読んだけどよく解りませんでした。 -- ピンチ? 2023-03-14 (火) 07:46:22
- このページにある『これでAdaFactorを指定してキャラ再現ができました。』『もっと見る』の部分を展開して出てきた水色枠の中に在る文章をテキトーなテキストにコピーして、あとはこのページの『学習の実行方法』に従ってやってくんやで。コピーした文章の中にnetwork_moduleの項目あるから。初期では--network_module=networks.lora ^になってる部分な。どこをどう書き換えるかはリコリスの配布もとに書いてあるからそこ見なされ。 -- 2023-03-14 (火) 09:11:16
- 自分はgtx1660無印ですが、上記の通り解像度を下げて、mixed precisionをnoに設定したところ反映されて初めて学習成功しました。情報を共有してくださった方々ありがとうございます! -- 2023-03-14 (火) 19:36:58
- あまりに日進月歩なので編集はおろか、新しい方法への対応自体追いついてなかったりするから、悪いが2,3週間経った情報はもう話半分におもってくれ。このページもほとんどが初版で2ヶ月近く前の情報だから、時間が経っても通じる部分かもうメソッドが変わって通用しない部分かはその都度判断しないといけなくなってる -- 2023-03-14 (火) 20:18:39
- このサイトの通りにやったのですが、training_command.batを実行するとraise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)と出でしまいます。その後、何かキーを押してくださいと出で押すとウィンドウが強制終了するのですが、何が原因なのでしょうか、、、。 -- 2023-03-14 (火) 23:18:17
- 1から順にインストールしていって学習Modelを選択とありますがこれは用意した画像じゃない?どこからか入手してこないといけないのでしょうか? -- 2023-03-15 (水) 15:11:20
- 学習モデルは画像生成に使うのと同じ、「stable-diffusion-1.4」とかそういうやつ。色々おすすめはあるけど、とりあえず2次元キャラなら「HD-17」や「ACertainty」あたりが定番 -- 2023-03-17 (金) 21:27:42
- 今、LORAで学習してるのですが、以下のようなエラーが出ました。「RuntimeError: CUDA out of memory. Tried to allocate 3.00 GiB (GPU 0; 8.00 GiB total capacity; 4.68 GiB already allocated; 0 bytes free; 5.29 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF」何か解決策を教えていただけないでしょうか?CPU,i7-9700K / GPU RTX2070 16GB(専用メモリ8GB/共有8GB)です。私はあまりここら辺が詳しくないので誰か教えていただけないでしょうか? -- 2023-03-15 (水) 23:47:47
- 上の者です。入力したが制限によって通らなかったコードについて追記します。このコードでステップ数を下げればいいということはなんとなくわかるのですが、どこを下げれば一番バランスがいいのかよくわからないので、教えていただけるなら幸いです。
以下コード
accelerate launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=C:\SD\stable-diffusion-webui\models\Stable-diffusion\corneos7thHeavenMix_v2.safetensors --train_data_dir=C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts\loratest\sozai --output_dir=C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts\loratest\output --reg_data_dir=C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts\loratest\seisoku --resolution=512,512 --save_every_n_epochs=6 --save_model_as=safetensors --clip_skip=2 --seed=42 --network_module=networks.lora --caption_extension=.txt --mixed_precision=fp16 --color_aug --min_bucket_reso=320 --max_bucket_reso=1024 --train_batch_size=6 --max_train_epochs=6 --network_dim=128 --network_alpha=128 --learning_rate=1e-4 --optimizer_type=AdaFactor --optimizer_args "relative_step=True" "scale_parameter=True" "warmup_init=True" --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --shuffle_caption --keep_tokens=1 --caption_dropout_rate=0.05 --lr_warmup_steps=1000 --enable_bucket --bucket_no_upscale -- 2023-03-16 (木) 01:29:53 - バッチサイズ大杉るんちゃう? CUDA out of memory って出てるでしょ。これが『メモリ限界を超えてる』っていう報告だから、メモリ容量関連の問題ってことよ。モジュールがリコリスじゃなくてネットワークってことはリコリスほどメモリ負荷はないにしてもバッチ6はちょっとキツい気がするなぁ。参考までに、モジュール=ネットワークの時、8Gではバッチ2(2倍処理)。リコリスならバッチ1(等倍処理)じゃないと動かないレベルだから、モジュール=ネットワークだとしても6倍処理ってなると16Gあってもキッツイんじゃないかなぁ。テストとしてバッチ=1でやってみて、徐々に増やしてってみ。 -- 2023-03-16 (木) 08:59:45
- もっとも簡単な奴でやってみたところ、それでもだめでした。エラー文は以下のよう①になっています。昨日のよりもはるかに簡単なはずの学習②であるのにもかかわらず、(GPU 0; 8.00 GiB total capacity; 6.68 GiB already allocated; 0 bytes free; 6.85 GiB reserved in total by PyTorch) と数字が大きくなっています。もしかして昨日行った試行錯誤が今も途中でGPUを占有している可能性はないのでしょうか?
①以下エラー文
「RuntimeError: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 8.00 GiB total capacity; 6.68 GiB already allocated; 0 bytes free; 6.85 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF」
②以下、もっとも簡単なスクリプトの奴
accelerate launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=C:\SD\stable-diffusion-webui\models\Stable-diffusion\corneos7thHeavenMix_v2.safetensors --train_data_dir=C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts\loratest\sozai --output_dir=C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts\loratest\output --reg_data_dir=C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts\loratest\seisoku --resolution=512,512 --save_every_n_epochs=1 --save_model_as=safetensors --clip_skip=2 --seed=42 --network_module=networks.lora --caption_extension=.txt --mixed_precision=fp16 --color_aug --min_bucket_reso=320 --max_bucket_reso=512 --train_batch_size=1 --max_train_epochs=1 --network_dim=128 --network_alpha=128 --learning_rate=1e-4 --optimizer_type=AdaFactor --optimizer_args "relative_step=True" "scale_parameter=True" "warmup_init=True" --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --shuffle_caption --keep_tokens=1 --caption_dropout_rate=0.05 --lr_warmup_steps=600 --enable_bucket --bucket_no_upscale -- 2023-03-16 (木) 16:23:01 - 上の者です。nvidia-smiで一応確認は行ったのですが以下のようにでました。私にはどうもGPUが使われているようには感じません。どなたかお助けいただけないでしょうか
+-----------------------------------------------------------------------------+ | NVIDIA-SMI 527.37 Driver Version: 527.37 CUDA Version: 12.0 | |-------------------------------+----------------------+----------------------+ | GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | | | | MIG M. | |===============================+======================+======================| | 0 NVIDIA GeForce ... WDDM | 00000000:01:00.0 On | N/A | | 29% 27C P8 5W / 175W | 392MiB / 8192MiB | 3% Default | | | | N/A | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: | | GPU GI CI PID Type Process name GPU Memory | | ID ID Usage | |=============================================================================| | 0 N/A N/A 1216 C+G ...e\Current\LogiOverlay.exe N/A | | 0 N/A N/A 9376 C+G ...urrent\LogiOptionsMgr.exe N/A | | 0 N/A N/A 10500 C+G ...wekyb3d8bbwe\Video.UI.exe N/A | | 0 N/A N/A 11384 C+G ...5n1h2txyewy\SearchApp.exe N/A | | 0 N/A N/A 12548 C+G ...8wekyb3d8bbwe\Cortana.exe N/A | | 0 N/A N/A 13892 C+G ...8bbwe\WindowsTerminal.exe N/A | | 0 N/A N/A 14204 C+G ...y\ShellExperienceHost.exe N/A | | 0 N/A N/A 14432 C+G ...bbwe\Microsoft.Photos.exe N/A | | 0 N/A N/A 15576 C+G ...bView2\msedgewebview2.exe N/A | | 0 N/A N/A 17236 C+G ...5n1h2txyewy\SearchApp.exe N/A | | 0 N/A N/A 17780 C+G ...ck\app-4.29.149\slack.exe N/A | | 0 N/A N/A 19388 C+G ...2txyewy\TextInputHost.exe N/A | | 0 N/A N/A 19516 C+G ...2.0.2.0\GoogleDriveFS.exe N/A | | 0 N/A N/A 21436 C+G ...ge\Application\msedge.exe N/A | | 0 N/A N/A 22952 C+G ...bbwe\Office16\OUTLOOK.EXE N/A | | 0 N/A N/A 23220 C+G ...artMenuExperienceHost.exe N/A | | 0 N/A N/A 23960 C+G C:\Windows\explorer.exe N/A | +-----------------------------------------------------------------------------+
(※編集者) 未改行テキストをわざわざ読む傾奇者が俺以外に居るとは到底思えないので勝手に整形しとく…。次回は知らんぞ…。
基本的に、「&br;」以外の改行情報はコメント送信時に失われるので注意。 - 1111起動したままやってないよね? あれも起動したままだとGPU食うから、ちゃんと切ってからやるんやで。一回タスクマネージャーでメモリの状況確認してみ。使用状況0にしてから学習開始しないと、8Gにはいっぱいいっぱいだからよぅ。あとはテストとしてdimとαも一旦1に落としてからだな。あれも数値を高くすると重くなる。ウォームアップも0に戻して、オプティマイザーもアダムW8bitとか軽いのにして、それで動いたら一個ずつ変えていくとええ。 -- 2023-03-17 (金) 08:42:13
- 助かります。一度試してみます。 -- 2023-03-17 (金) 15:32:54
- 上の者です。入力したが制限によって通らなかったコードについて追記します。このコードでステップ数を下げればいいということはなんとなくわかるのですが、どこを下げれば一番バランスがいいのかよくわからないので、教えていただけるなら幸いです。
- 業務連絡です。累計コメント件数の増大に伴い、いくつかの変更を行いました。
(1)コメントを別ページに記録する形にしました。
(2)本体ページには最新10件を表示するようにしました。
(3)既存コメントの先頭にあるラジオボタンをONにすることで、対象のコメントの下にぶら下げ返信できるようにしました。つまりツリー構造です。
これらの変更に伴い、多少の整形や枝の移植を実施しました。 -- 2023-03-16 (木) 18:47:25 - 教師画像を集め学習させようとしています。 学習したモデルを Stable Diffusion Web UI で使います。 その際にトリガーワードが必要になると思うのですが、トリガーワードはどの段階で設定するのでしょうか? 自身で自由に設定できるものでしょうか? 始めたばかりで的外れな質問でしたらすみません。※Colabで動かしています。よろしくお願いします。 -- 2023-03-17 (金) 11:21:52
- 1)キャプションファイルなしの形式でやる場合、教師画像のフォルダ名(「1_charaA」などの形式でやってるはず)がトリガーになる。この場合は「charaA」。
2)キャプションファイルありの形式でやる場合、それぞれのタグすべてに要素がちょっとずつ入る。ただし、こっちのやり方の場合基本的に「先頭のタグ以外をシャッフルする」オプションを使ってると思うので、先頭のタグが一番濃密に要素を覚える=先頭のタグが事実上トリガーとなる。より詳しいことはキャプションの付け方を調べて試行錯誤してくれ -- 2023-03-17 (金) 21:23:24- 詳細な説明ありがとうございます。
上記と照らし合わせながら進めてみます。ありがとうございました。 -- 2023-03-17 (金) 22:19:44
- 詳細な説明ありがとうございます。
- 1)キャプションファイルなしの形式でやる場合、教師画像のフォルダ名(「1_charaA」などの形式でやってるはず)がトリガーになる。この場合は「charaA」。
- 非常に初歩的な質問です。学習がなぜかできない理由としてGPUメモリの断片化が原因を考えました。開放する方法としてtorch.cuda.empty_cache()を(venv) PS C:\loratest\LoRA_Easy_Training_Scripts\sd_scripts>で入力したのですが実行できませんでした。どこで撃てばGPUメモリを解放できますか? -- 2023-03-17 (金) 16:24:18
- gtx1660 super使用
mixed precision=“no”でやるとraiseなんたらエラー
オプティマイザーを8bit_adamからadafactorに変えたらいけたわ
負けるなgtx千民! -- 2023-03-18 (土) 11:55:03 - 初歩的な質問なのですが、Loraで学習させたあるキャラクターのモデルをStable Diffusion Web Ui で使用し生成しています。
その際に「服を破る」→「torn〇〇」が全くもって反映されないのですが、これは「学習させたモデル全体を認識しているせいで「torn clothes」など、
特定の箇所を破ることが出来ないのでしょうか?
inpaintで肌色に着色しても反映されませんでしたが、何かうまく「torn」を反映させる方法はありますでしょうか?
説明が下手ですみませんが、よろしくお願いします。※Colab使用です。 -- 2023-03-18 (土) 16:22:53- 推測の粋を出ませんが、そのLoRAが着衣画像ばかりを強く学習しているのかもしれませんね。まず試してほしいのは、画像生成に利用する際のLoRA強度を1.0ではなく0.7や0.5に調整することです。
LoRAを画像生成に使用する方法には🎴派とQuicksettings派とAdditional Networks拡張派の3種類が存在し、説明が冗長になるため、ここでは強弱を調整する具体的な方法については触れません。
また当然ですが、適用強度を弱めるとキャラ再現の安定度が低下するので、衣装やらアクセやらをプロンプトで細かく指定する必要性が増します。 -- 2023-03-18 (土) 17:33:33 - もう1つ。単純に(torn 〇〇:1.2), などの強調により改善できるかもしれません。ただし数値は1.2~1.3くらいまでが穏当で、1.5くらいになると割と無茶に足を突っ込む領域になり、色々と崩れやすくなります。でも例えば(torn legwear:1.2)とか色々と良い文化だと思います。 -- 2023-03-18 (土) 17:39:46
- 詳細なご説明ありがとうございます。
Lora強度0.7までは試しておりましたが、それ以降は出力していませんでした。
私は🎴で使用しておりましたが、各プロンプトを強調して試行錯誤してみます。
今回の学習の際は、着衣画像ばかりでしたが、学習段階でtorn状態の画像も混ぜて勉強させてみるのも手かな?と考えました。 -- 2023-03-18 (土) 21:53:45
- 詳細なご説明ありがとうございます。
- 推測の粋を出ませんが、そのLoRAが着衣画像ばかりを強く学習しているのかもしれませんね。まず試してほしいのは、画像生成に利用する際のLoRA強度を1.0ではなく0.7や0.5に調整することです。
- Linux環境で動かす場合(要するにpaperspace)のとこlora_train_command_line.py が無くなってるせいか動かなかったので色々やって大体わかった手順を取り急ぎ追記しておきました。時間ができたらまっさらなインスタンスで確認します。 -- 2023-03-18 (土) 18:33:28
- どうしたらいいかわからなかったんでこれまでアプデ自体をやめてました。感謝。 -- 2023-03-23 (木) 15:06:06
- LOARで予約メモリが割り当てメモリより多い事態が発生し、学習が途中で終わってしまう場合何か対策はあるのでしょうか? -- 2023-03-19 (日) 01:19:05
- 初心者です、情報見落として質問してたら申し訳ないんですが、loraのファイル名を変更しても機能はするのでしょうか?hogehoge.safetoneをほげほげ.safetoneの様にひと目で日本語で分かりやすく出来たら快適になるなぁ…と。megaから落としたloraとかだとトリガーワードも分からなかったりするのでその場合だとファイル名変更するとさすがに機能しなくなりますよね? -- 2023-03-23 (木) 13:45:54
- リネームしても機能します。その例だと
<lora:hogehoge:1>, toshiaki, の記述が、
<lora:ほげほげ:1>, toshiaki, に変わるだけですね。
トリガーワード「toshiaki,」はLoRAファイルの内部に記録されているので、ファイル名のリネームによって変化することはないわけです。 -- 2023-03-23 (木) 14:32:50- 助かります,おかげで安心してリネームできます -- 2023-03-23 (木) 22:06:42
- civitaiとかファイル名がページタイトルと同じになるように勝手に変更されてるしファイル名変更しても問題ないけど日本語(というか全角文字)は色々エラーのもとになるからやめたほうがいい。トリガーワード分からない問題はメタデータで学習時のキャプションが見れるからそこで確認すると良い。たまにキャプション無しで学習してるのがあるけどそういうのは逆にトリガーワード無しで発動する。 -- 2023-03-23 (木) 14:59:34
- 配慮しながらリネームします、メタデータ確認してみます助かりました -- 2023-03-23 (木) 22:13:06
- リネームしても機能します。その例だと
- 1070ですが以前はできていたlora学習ができなくなりました。学習自体は終わるのですが出来上がったloraファイルを当てても何も反映されてない。うーん -- 2023-03-23 (木) 20:54:28
- 1660系と同じ症状のやつ?なんかオプション変えると治ったんじゃなかったっけ。 -- 2023-03-24 (金) 07:45:16
- konya_ss GUIを導入したのですがTrain modelを押した後、「ValueError: invalid literal for int() with base 10:」というエラー文が出たのですが原因・解決方法がわかる方いらっしゃいますでしょうか。。自分なりに調べてはみたのですがイマイチ解らず。 -- 2023-03-26 (日) 06:44:01
- 再度入れなおしたらエラー吐かなくなりました。が、原因わからず、、 -- 2023-03-26 (日) 07:57:49
- 初歩的なんですけど、LoRAを圧縮するのってどうすればいいですか?普通に出力すると140MBくらいだと思うんですけど、lora_resize.pyの使い方とかdimを減らすやり方とかあれば教えてほしいです。 -- 2023-03-27 (月) 10:14:23
- 上でLoraのトリガーワードがわからない場合はメタデータを見るとありましたが、Loraのメタデータはどうやって確認するんでしょうか? -- 2023-03-27 (月) 12:55:04
- 方法は色々あります。
整形や着色のおかげでもっとも見やすいのが、Additional Networks拡張機能を利用する方法です。
誘導→https://wikiwiki.jp/sd_toshiaki/Extensions#a712d632
導入するとtxt2imgやimg2imgと同じ並びにAdditional Networksのタブが追加され、そこの右下でメタデータを確認できます。
🎴ボタンから任意のLoRAにカーソルを合わせて、右上に表示される (i) を押すことでもメタデータを確認できます。見易いとはお世辞にも言い難いですが、手軽なのが特長です。ただしこの機能は3/11辺りの1111アプデにより実装された機能です。
あと単純にLoRAファイル(.safetensors)をメモ帳とかのテキストエディタで開くことでもメタデータを一応確認できます。
これはLoRAのメタデータとかに限った話ではなくて、画像とかでも、大体のメタデータはメモ帳とかのテキストエディタで開くことで確認できます。 -- 2023-03-27 (月) 19:09:53- ありがとうございます。確認できました。 -- 2023-03-28 (火) 02:39:16
- 方法は色々あります。
- としあきbatを用いて学習を試していたのですが、出来上がったモデルが「キャラ名」だけの指定だと全く違う画像が生成されてしまい、逆にそれ以外のキャラを構成する要素…上の例で言いますと、「1girl,standing…」のキャラ以外のタグを指定したときにキャラが生成される状態になっています。(keep_tokensは1に指定しています。)
学習対象から「1girl,standing」タグを除いた方がいいのかと考え消すと、今度はそもそもキャラが生成できなくなってしまいます。
「1girl」で正則化画像を作成をしてもみたのですが、変わらず…。
どのようにしたらキャラ名だけで出力されるようになるか、ご教示いただきたいです。 -- 2023-03-27 (月) 20:21:17- 案外キャラ名の綴りが間違えてるとかのような気がする。 -- 2023-03-29 (水) 11:57:19
- 超初心者向けありがとうございます。ポーズを覚えさせたい場合は、検出したポーズとアングルを抜くのでしょうか・・・? -- 2023-03-27 (月) 21:23:56
- create_json.batが実行できません。超初心者向けステップ4で配布されているファイルそのものや、それのファイルパスを自分の環境に書き換えたもの、「ファインチューン向け~」からコピペして自分の環境に書き換えたものからファイルに作成したものでもcmdが一瞬で閉じ(文字化けのような表記が見える)、marge.jsonが生成されませんでした。学習画像は「hosi」フォルダのままです。ダブルクリックでも管理者として実行でも変わらず…。 -- 2023-03-27 (月) 23:37:06
- 文字化け画面が見える→sd-scriptsは実行できている|エラー画面で止まらない→画像フォルダへのパスやファイルに問題は無い。(たとえタグが空でもエラーは出ない)| marge_clean.json は生成できていますか? LoRaの作成に必要なのはそちらなのでそちらが出力されていれば問題ないのですが… -- 2023-03-28 (火) 10:02:14
- 返信ありがとうございます。marge_clean.jsonも生成されていない状況です。 -- 2023-03-28 (火) 10:16:00
- 少し修正したものをステップ4にあげてみました。これで治ればいいのですが -- 2023-03-28 (火) 12:00:05
- ご対応ありがとうございます。が、生成されませんでしたね…
スクリプトにある、venv\Scripts\activate.batファイルを手動で実行してみると、cmdが一瞬で開いて閉じる(cmdには何も記述がなし)挙動をするのですが、この挙動は正常でしょうか?
また、試しに空のmarge.jsonとmarge_clean.jsonファイルをフォルダにおいておくと、marge_clean.jsonだけが残ります(中身はないままですが…)。 -- 2023-03-28 (火) 23:03:14- ダブルクリックで実行せずコマンドラインから実行してみてください。 -- 2023-03-29 (水) 00:59:36
- venv\scripts\activateに触れた瞬間落ちると言うことは仮想環境に問題があるっぽいのでvenv環境自体をリセットするかsd-scriptsの削除と再インストールを試してみて下さい -- 2023-03-29 (水) 03:20:22
- その際インストール最後の(no/fp16/bf16)の選択にはキーボードの1を入力してください(でないとエラーになります) -- 2023-03-29 (水) 03:33:10
- LoRA_Easy_Training_Scriptsのポップアップを日本語化しました https://rubber-suit-girl.booth.pm/items/4652973
-- 2023-03-31 (金) 01:19:48
- 自分の場合CUDA out of memoryが出てつまっていたんですがGPUメモリが8GBと12GBの二つ認識していて(タスクマネージャーで気づいたw)、8BGの方で動いていてエラーが出ていました。自分は知識不足でこんなのでだいぶ詰まったんですが、他の人の参考になるかもと思い、念のため残しておきます。 -- 2023-04-01 (土) 13:49:32
- sd-webui-train-toolsの導入に成功した人に記事を書いてほしいん。うちではタブ出たけど読み込み中のままだった。 -- 2023-04-01 (土) 14:41:51
- AttributeError: 'function' object has no attribute 'weight' と言うエラーが発生し、LoRAの適用時のみ画像生成が出来ないのですが、解決法をご存知の方が居ればご教授願えないでしょうか。 -- 2023-04-01 (土) 19:52:27
- 私も同じ症状で困っていたのですがWebUI(AUTOMATIC1111)をダウングレードしたら治りました。ダウングレードの方法はこちらを参考にしました。https://economylife.net/downgrade-git-stable-diffusion-webui-automatic1111/
3月26日のwebUIのアップデートが原因だそうなのでそれ以前のバージョンに戻せばよいかもです。私はてきとうに3月24日と日付が入ったを選んでダウングレードしたらLORAが使えるようになりました。 -- 2023-04-05 (水) 15:57:37
- 私も同じ症状で困っていたのですがWebUI(AUTOMATIC1111)をダウングレードしたら治りました。ダウングレードの方法はこちらを参考にしました。https://economylife.net/downgrade-git-stable-diffusion-webui-automatic1111/
- sd-webui-train-toolsをURLからインストールしてみて、特にエラーも出てなく、インストール済になってるみたいなんだけど、再起動してもタブが出ないですね。。 -- 2023-04-02 (日) 00:27:11
- 4090環境で超簡単キット導入後にtorchを2.0.0cu118にしてxformersを0.0.18dev500に上げたらrohaスタートのbat設定とかデータセットやら同じなのに1.8倍近い速度アップが出来たし仮想メモリの消費も随分減ってかなり余裕持って動かせるようになるね あと学習本番前にトリトンが無いわ!ってめっちゃ連呼されるけど動作に問題はない様子 -- 2023-04-02 (日) 18:38:48
- すごい!アップデートしたらバッチサイズとかかなり上げてもメモリエラーが起こらなくなった -- 2023-04-05 (水) 02:46:31
- 「超初心者向け 5+0ステップで覚えるLora制作」のステップ4でcreate_json.batを実行してもno metadata / メタデータファイルがありませんと表示されるのですがどうしたらいいですかset sd_path="C:\Program Files2\lora_train\sd-scripts"set image_path="C:\Program Files2\lora_train\lora_train_data\train_dir"に書き換えても同じ結果でした -- 2023-04-02 (日) 23:16:32
- 取り急ぎ検証してみました。エラーが出る可能性は二通り考えられます。(1):TraceBack(most recent...)以下数行のエラー分が出力されたあと no meta data / メタデータファイルがありません。これはタグの書かれたテキストファイルの数が足りていない場合のエラー。(2:)1行目からno metadata / メタデータファイルがありません が表示される。これはディレクトリへのパスが間違っていてファイルを読めに行っていないときのエラー。念のためもう一度ご確認下さい。至急の対応のため別の原因があるかもしれませんが… -- 2023-04-03 (月) 08:06:37
- 検証していただきありがとうございます。1行目からno metadataです。パスは"C:\Program Files2\lora_train\lora_train_data\train_dir\10_aya maruyama\card_normal_4.txt"という感じの名前のtxtと同名のpngファイルで66個ずつあります -- 2023-04-03 (月) 20:40:19
- ちょっとソースを読んでみました。 sd-script\finetune\clean_captions_and_tags.py の 126行目の処理 os.path.exists 命令がエラーの原因のようですね。そしてこの os.path.exists というのが パスの実在を確認する命令で入力されたパスが存在するならtrueで正常な処理。存在しないならfalseで処理中断と。ううん…。本当に念のためですがbatの set image_pathを set image_path="%~dp0\lora_train_data\train_dir" に書き換えて試してみて下さい。たぶん無理っぽそうですが…。別の解決法がないか考えてみます。 -- 2023-04-03 (月) 21:36:49
- ありがとうございます。create_json.batには元からset image_path="%~dp0\lora_train_data\train_dir"と書かれているのですが、このままでいいのですよね?改めてcreate_json.batをダウンロードしてそのまま"C:\Program Files2\lora_train\create_json.bat"で実行しましたが同じ結果でした。 -- 2023-04-03 (月) 22:32:13
- あとは別の環境変数表現を使った set image_path="%cd%\lora_train_data\train_dir" とかですかね。かなりの手間ですがsd-scriptsの不具合が出ている場合もあるので一端sd-scriptのフォルダごとの削除からの再インストールも試してみて欲しいです -- 2023-04-04 (火) 03:23:36
- あああ!!たぶん原因が分かりました(違うかもしれませんが)。ディレクトリのパスに半角スペースが含まれているとエラーが出るかもしれません。ですので一端、半角スペースの含まれないディレクトリに lora_train を移動してお試し下さい。c:\lora_tarin や c:\program_Files2 と言った具合のパスに。 -- 2023-04-04 (火) 09:10:00
- 今度は別のエラーが出る、という場合は update_sd_scripts.bat を動かして環境を更新してみて下さい。もし4/1更新バージョンの sd_scripts に戻したい場合は sd-scripts のディレクトリをコマンドプロンプトで開いた状態で git reset --hard f037b09 を実行してください -- 2023-04-04 (火) 11:13:35
- おお!C:\program_Files2にインストールし直したらjsonを作成できました!ありがとうございます! -- 2023-04-04 (火) 12:26:47
- 取り急ぎ検証してみました。エラーが出る可能性は二通り考えられます。(1):TraceBack(most recent...)以下数行のエラー分が出力されたあと no meta data / メタデータファイルがありません。これはタグの書かれたテキストファイルの数が足りていない場合のエラー。(2:)1行目からno metadata / メタデータファイルがありません が表示される。これはディレクトリへのパスが間違っていてファイルを読めに行っていないときのエラー。念のためもう一度ご確認下さい。至急の対応のため別の原因があるかもしれませんが… -- 2023-04-03 (月) 08:06:37
- training_command_sample.batでjson_file=""で実行したら9.11MBのsafetensorsファイルが作成できたので階層とかは間違ってないと思います -- 2023-04-03 (月) 01:24:26
- "no kernel image is available for execution on the device 上記エラーが出た場合の対処で「sd-scriptsの実行オプションから"--use_8bit_adam"を外して実行すると解消する」とありますがこれはtraining_command_sample_lohaにあるrem --use_8bit_adamをまるごと削除するということでしょうか? -- 2023-04-03 (月) 01:33:41
- remが付いているのはコメント文なので実行オプションとしては有効化されていないのでは。問題が出てるのは別の要因かも -- 2023-04-03 (月) 08:12:02
- 再度手順通りにやってみたのですがno kernel image is available for execution on the deviceのエラーがでてしまいます。こちらに「sd-scriptsの実行オプションから"--use_8bit_adam"を外して実行すると解消する」とありますがこの手順をどなたか教えていただけますか。 -- 2023-04-04 (火) 20:57:20
- しかしねぇ…二ヶ月以上前の記事なのだから…。accelerate launch に付けるコマンドラインオプションから --use_8bit_adam を外すってだけじゃないですか? -- 2023-04-06 (木) 09:13:15
- remが付いているのはコメント文なので実行オプションとしては有効化されていないのでは。問題が出てるのは別の要因かも -- 2023-04-03 (月) 08:12:02
- sd-webui-train-toolsで無限ロードに入った人は、起動時のコマンド変えてみるといいかも。自分はそれで治った。試しにLora学習させてみたけど、確かにお手軽だったものの、出来はいまいちだった。上に書いてる手法の方が全然良いと思う。 -- 2023-04-04 (火) 03:32:54
- sd-webui-train-toolsを試そうと思ったんですが、学習結果のファイルが作れても生成したら反映された気配がありません。初歩的な質問ですがsd-webui-train-toolsにもトリガーワードって必要ですか?RTX3060なのでスペックは足りてます -- 2023-04-04 (火) 13:20:44
- sd-scriptsのLoRA学習用ツール、色々試したけどワイの検索力ではどの設定項目が何を示してるかちゃんと理解する事ができるツールが無かった…Bingに聞いても分からないし…結局なんのツールがオススメ?それともツールなんか使わないでaccelerate launch? -- 2023-04-06 (木) 12:53:13
- ワイも昨日から始めた超初心者やけど、微調整しながらaccelerate launchをひたすら繰り返してる。最初ステップ数とエポック数と繰り返し数の違いすらよくわかってなかったけど、実際触ってみると段々自分で考えられるようになってきたから、やっぱりやってみるのが一番いいよ -- 2023-04-07 (金) 23:47:15
- 「ステップ3:タグの編集とそのコツ」…別にトリガーワードとフォルダ名一致させる必要ないだろ。自分が間違えないようにというならわかるが。タグテキスト使う場合、フォルダ名とか学習に関係ない -- 2023-04-07 (金) 09:50:02
- そうなの? sd-scripts/train_README-ja.md の『複数class、複数対象(identifier)の学習』の項を参考にしたんだけど。確かにメタデータがあればフォルダ名との一致は必要無いかも。だけど一応メタデータを生成できない場合も考慮したくて…気になっちゃったならごめんね -- 2023-04-07 (金) 10:05:18
- ああ!『DreamBooth、キャプション方式』の項で説明されている、画像と同じフォルダにキャプションファイルを置くと『※それらの画像の学習に、フォルダ名(identifier class)は使用されなくなります。』ってタグテキストにも適用されるんですか!? …知りませんでした勉強になります -- 2023-04-07 (金) 10:56:43
- そうなの? sd-scripts/train_README-ja.md の『複数class、複数対象(identifier)の学習』の項を参考にしたんだけど。確かにメタデータがあればフォルダ名との一致は必要無いかも。だけど一応メタデータを生成できない場合も考慮したくて…気になっちゃったならごめんね -- 2023-04-07 (金) 10:05:18
- 5ステップの0ステップ目ですが初心者を混乱させそうな記述があったので勝手に直させてもらいました -- 2023-04-08 (土) 07:09:50
- 教師画像だけど「画像背景はある方が学習から除外し易い(要素がないほうが除外しにくい/無地ばかりだと無地を学習してしまう為)」って感じでいいのかな -- 2023-04-08 (土) 16:40:01
- ふと思ったが正則化ってDBの名残でLoraで使うものではないのでは・・・ -- 2023-04-09 (日) 13:54:45
- 学習は完了になってるんだけど、Lora使っても反映されない……学習出来てないという事だろうか? -- 2023-04-09 (日) 21:04:10
- トリガーWord入れた?loraで学習させたい対象をpromptに書かないと目的のものが描写できんよ -- 2023-04-10 (月) 00:39:17
- 入れてある。タグファイルの先頭に入れればいいんだよね?そのトリガーワードが全く働いてないんだよなぁ。どっかでおかしくなってるんだろうけど…… -- 2023-04-10 (月) 01:20:51
- トリガー以外の関連するようなタグを軒並みいれて無理矢理portraitで中央に引き出してもベースモデルのままっていうなら学習出来てないのかもね。俺はAdaFactorを低ステップで回しちゃったときに同じことあった。 -- 2023-04-10 (月) 10:00:21
- トリガーWord入れた?loraで学習させたい対象をpromptに書かないと目的のものが描写できんよ -- 2023-04-10 (月) 00:39:17
- フロントエンドありがたいのだけどguiが見切れちゃってて実行ボタンが見えないです。できたらスクロールバーをつけていただけたら。 -- 2023-04-09 (日) 21:41:12
- ファインチューニング方式のやり方の解説めちゃ丁寧だ…神か -- 2023-04-10 (月) 01:29:28
- 『超初心者向け 5+0ステップで覚えるLoRA制作』の中でパスを記入する工程があって、「学習画像フォルダもデフォルトのパスで問題無いはずです。」とか書いてたりするけど、デフォルトのパスって何?既に記入されているパスだとすると、Xドライブなんて作ってないからパスとして正しいのか疑問。面白可笑しく書くのは良いけど、キチンと記載して欲しい。 -- bazuyak? 2023-04-10 (月) 12:37:14
- 貴方の言うXドライブが記載されてるのは「学習のベースモデルファイル」の方では?この部分は個々人の環境に合わせて書き直す必要があるからXを例に置いてるんだろう。学習画像フォルダのパスはデフォルト(解説画像)の通り"%cd%/lora_train_data/train_dir"のままにしておくとbatファイルがあるディレクトリのlora_train_dataフォルダを指定してくれる。 -- 2023-04-10 (月) 14:09:11
- 誰に頼まれたわけでもなく、こんなに詳細かつ親切な説明を書いていただいて、どんな言葉で感謝の気持ちを伝えればいいのか俺にはわかりません。俺も編集者の一人なので、画像を用意したり挿入する際の手間をよく知っています。本当にお疲れ様です。 -- 2023-04-10 (月) 13:52:54
- 学習画像多めにして繰り返しとエポック減らすのがいいのか学習画像はほどほどである程度繰り返し数を稼ぐのがいいのか、正則化方式が良いのかファインチューンがいいのか次元数はどれくらいがいいのか...沼すぎるわよ... -- 2023-04-10 (月) 19:44:23
- たぶん正解は無い。引き算で学習してLoRAでモデルに対して足し算するから学習内容によって正解値が違う。モデル自身にもマージという足し算があるからほんとに沼。 -- 2023-04-10 (月) 20:43:09
- create_json.batを実行してもno module named tqdmと出てきて画像と同じ画面にならないのですがどうすればよいでしょうか? -- 2023-04-11 (火) 12:25:28
- sd-scriptsの仮想環境が変になってるのかもしれません。一度update_sd_scripts.batを実行して環境の更新を試してみてそれでも同じエラーが出るようなら、sd-scriptsをフォルダごと削除したあとにinstall_sd_scripts.batを実行して仮想環境を新しく構築してみてください -- 2023-04-11 (火) 12:45:05
- create_json.batのことを質問した者です。教えていただいたとおりにやったら解決しました。ありがとうございます。 -- 2023-04-11 (火) 16:04:16
- sd-scriptsの仮想環境が変になってるのかもしれません。一度update_sd_scripts.batを実行して環境の更新を試してみてそれでも同じエラーが出るようなら、sd-scriptsをフォルダごと削除したあとにinstall_sd_scripts.batを実行して仮想環境を新しく構築してみてください -- 2023-04-11 (火) 12:45:05
- LoRAって最終どこまで精巧に出せるんだろう。今やってる感じだと複雑な服装とか髪型のマイナーキャラだと、服や髪がどうしても再現できない。仕方なく3Dモデル+i2iでLoRAも使って再現してる。 -- 2023-04-11 (火) 13:03:53
- やろうと思えばかなり精巧に出せると思うが、特徴ごとに重み(?)があって、それをLoRA毎に細かく設定していく必要があるから労力の割に合わんと思う。 -- 2023-04-11 (火) 20:48:32
- '--train_data_dir' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。って表示されてパスとか間違ってるのかと思い何通りか試してみましたが改善できません。どなたかわかる方おりませんでしょうか? -- 2023-04-11 (火) 13:11:35
- バッチファイルの記述の書き換えででset xxx=yyyみたいなところの=の両側か片側に空白が入っていたりしませんか?自分はそれでよくそのエラーでてましたが -- 2023-04-12 (水) 14:02:13
- キャラでなく画風を学習させたいのですが、2023/04現在ではLoRA(LoHa)が優勢ですかね?
別ページに"画風の精度をあげるならDB+HNが最強"とありますが古い記述のようですし、他サイトでも意見が分かれているような…
試すのが早いのは承知の上ですが、、皆様の感覚では如何でしょう。。 -- 2023-04-11 (火) 13:39:49- 自環境だとHNよりLyCORIS(LoHa)の方が学習速度も速くて精度も高かったかなHNでもうまくやればできるのかもしれないけどLoraの方が楽だった -- 2023-04-11 (火) 18:26:39
- 参考になりますありがとうございます! -- 2023-04-12 (水) 00:16:16
- 自環境だとHNよりLyCORIS(LoHa)の方が学習速度も速くて精度も高かったかなHNでもうまくやればできるのかもしれないけどLoraの方が楽だった -- 2023-04-11 (火) 18:26:39
- 入れて見たけどよくわからないエラーが起きて止まってしまう…このエラーはどういう意味なの…
;raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)subprocess.CalledProcessError: Command '['C:\\AI\\sd-scripts\\venv\\Scripts\\python.exe', 'train_network.py', '--network_module=lycoris.kohya', '--pretrained_model_name_or_path=C:\\AI\\stable-diffusion-webui Sdv1\\models\\Stable-diffusion\\AnythingV5V3_v5PrtRE.safetensors', '--train_data_dir=C:\\AI\\lora_train_data\\train_dir', '--output_dir=C:\\AI\\stable-diffusion-webui Sdv1\\models\\Lora', '--caption_extension=.txt', '--shuffle_caption', '--prior_loss_weight=1', '--resolution=512,512', '--enable_bucket', '--bucket_no_upscale', '--min_bucket_reso=320', '--max_bucket_reso=960', '--train_batch_size=1', '--learning_rate=1e-3', '--lr_warmup_steps=0', '--text_encoder_lr=1.5e-4', '--unet_lr=1.5e-3', '--max_train_epochs=8', '--mixed_precision=fp16', '--save_precision=fp16', '--xformers', '--persistent_data_loader_workers', '--max_data_loader_n_workers=4', '--save_every_n_epochs=1', '--save_model_as=safetensors', '--output_name=lora_sample_hosi_loha', '--clip_skip=2', '--seed=23', '--network_dim=8', '--network_alpha=1', '--network_args', 'conv_dim=8', 'conv_alpha=1', 'dropout=0.2', 'algo=loha', '--max_token_length=150', '--cache_latents', '--gradient_checkpointing', '--lr_scheduler=cosine_with_restarts', '--lr_scheduler_num_cycles=1']' returned non-zero exit status 1. -- 2023-04-11 (火) 17:44:47- 学習起動バッチの記述に間違いがあるときのエラーかな。例えば『学習のベースモデルファイル』なんかの自分で書き換えた部分のパスやファイル名に記述ミスがないかもう一度確認してみてください -- 2023-04-11 (火) 18:50:16
- 見事にモデルのパスの頭に"がついておらずでした!回答ありがとうございました! -- 2023-04-11 (火) 19:06:40
- 返信ありがとうございます。書き換えた部分のパスを見直してるけど頭に”はついている。VAEも指定していないから空でいいはず。あとは何が違うんだ… -- 2023-04-11 (火) 20:34:08
- パスは合っていたのですが、編集した行のset ckpt_file=の「=」の前後にスペースがあるとエラーになりました。削除したら問題なく動作しました。 -- 2023-04-12 (水) 23:03:48
- 学習起動バッチの記述に間違いがあるときのエラーかな。例えば『学習のベースモデルファイル』なんかの自分で書き換えた部分のパスやファイル名に記述ミスがないかもう一度確認してみてください -- 2023-04-11 (火) 18:50:16
- 試しにとしあきbatでサンプルの星を学習させたんだけど、出来上がったLoraをWebUIで読み込んでトリガーワード入れても全く反映されない。設定はまず全部デフォルトで行ってるんだけど、何が悪いんだろう? -- 2023-04-12 (水) 01:53:03
- あれは本当にテストのために用意されている素材のようなのでエラー無くLoRAが生成され、WebUI上で10枚出して1枚ぐらい星のような形が見えたらなら無事に学習済み…と認識して大丈夫なはずです。たとえば教師画像フォルダ名『10_hosi』を『50_hosi』ぐらいに書き換えて(つまり学習の繰り返し数を5倍にして)LoRAを出力してみてもまだ星が出ないなら俺にも理由が分かりません…。 -- 2023-04-12 (水) 10:55:58
- うーん、ステップ数増やしたり色々やったが何やってもだめだ。星の欠片も出てこない。VRAM8GBでスペックは足りてるはずなんだけどなあ。 -- 2023-04-13 (木) 00:15:24
- 初歩的なことですがトリガーワード以外にloraのタグも付けてますよね?そのタグもlora名と一致しているか、大文字小文字一致しているか。外したときと付けたときで出力される図像に変化があるか。学習したときに黒画面に学習の進捗のインジケータの表示がでてたら学習自体は成功してますよ。オプティマイザーを変更してたらぜんぜん学習できてないってことはありますが -- 2023-04-13 (木) 12:11:19
- あれは本当にテストのために用意されている素材のようなのでエラー無くLoRAが生成され、WebUI上で10枚出して1枚ぐらい星のような形が見えたらなら無事に学習済み…と認識して大丈夫なはずです。たとえば教師画像フォルダ名『10_hosi』を『50_hosi』ぐらいに書き換えて(つまり学習の繰り返し数を5倍にして)LoRAを出力してみてもまだ星が出ないなら俺にも理由が分かりません…。 -- 2023-04-12 (水) 10:55:58
- t2iで画像生成するときにseed値は変えずにLoRAの強調度を0.1から1.0まで段階的にスイープして生成する方法ってないでしょうか?LoRA作ってて学習データの完成度を画像生成して確かめてるんですけど、ぶっちゃけ手打ちで書き換えるのがめんどくさいです。 -- 2023-04-12 (水) 23:46:38
- としあき!俺を使え!
https://wikiwiki.jp/sd_toshiaki/X/Y/Z%20plot#b701d88a -- 2023-04-13 (木) 00:04:55- あざます!X軸だけにPrompt S/R設定してパラメータスイープさせればseed固定して強調度の影響の比較が簡単にできますね~ -- 2023-04-13 (木) 01:10:24
- としあき!俺を使え!
- 初心者でしたがお陰様でloha作成できました、ありがとうございます。webuiでlocon,lohaの使用にはwebui>extensions>available>loadfromからa1111-sd-webui-loconをお忘れなく -- 2023-04-13 (木) 12:31:39
- dataset-tag-editor使ってタグ編集してるとしょっちゅうフリーズして最初からになるんやが他に良いツールないんかな -- 2023-04-13 (木) 14:48:52
- コメントしてから気付いたけど最近入れた自動翻訳系拡張と衝突してただけやったわ -- 2023-04-13 (木) 15:04:56
- VRAM4GでLORAって動かせますか?
もしくは動かせた人っていますか? -- 2023-04-14 (金) 16:32:24 - 超初心者キットが動かせん…
model is not found as a file or in Hugging Face, perhaps file name is wrong? / 指定したモデル名のファイル、またはHugging Faceのモデルが見つかりません。ファイル名が誤っているかもしれません:
何度見直してもこのエラーになる。
set ckpt_file="X:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion\xxxx.ckpt"
ここの記述ミスなのかと思うのですがコメントにすでにあるようなミスは確認できず何がいかんのかわかりません…
使用モデルがsafetensorsなのでckptの部分をそのままsafetensorsに書き換えたりはしています。モデルの名前もコピペして貼り付けているので間違いはないはず…空白等もないし…
X:の部分も触らなきゃだめだったりします?マジで誰か助けてくれ… -- 2023-04-14 (金) 19:39:25- そこには使用するモデルへのフルパスを記述する必要があります。X: の部分は使っているストレージのドライブ名なので、もしご使用のストレージがCドライブならC: と置き換えて記述します。さて簡単にフルパスの取得方法のお伝えします。使用したいモデルファイルを右クリックして[プロパティ]を開くと、表示されたウィンドウの中段ぐらいに[場所]という項目があるはずです。その右欄に記されているのがモデルファイルの含まれたフォルダへのパスで、フルパスはそこにモデルのファイル名を足したものになります。仮にフォルダへのパスが 『C:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion』だった場合、そこに \ (ディレクトリの区切り文字。ここのコメント欄の都合上バックスラッシュですが実際は¥マーク(半角)を用います)を1文字足してからモデルのファイル名『aom3.safetensers』や『Basil_mix_fixed.safetensors』などを追記します。つまり『C:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion\aom3.safetensers』といった風の記述となります。この説明で伝わるといいのですが…がんばってください -- 2023-04-14 (金) 20:15:01
- 返信ありがとうございます!X:の書き換え、ご教授いただいたプロパティからのフルパス記述もコピペでやってみましたが駄目でした。
メモ帳で開いているのですが、¥マークはメモ帳では使えない?のでバックスラッシュで対応しています。
せっかく教えていただいたのに本当にお手上げです…一応、さっきは長くて載せなかったエラーっぽいものを貼っておきます
Traceback (most recent call last): File "C:\f73639 (1)\sd-scripts\train_network.py", line 773, in <module> train(args) File "C:\f73639 (1)\sd-scripts\train_network.py", line 152, in train text_encoder, vae, unet, _ = train_util.load_target_model( File "C:\f73639 (1)\sd-scripts\library\train_util.py", line 2799, in load_target_model text_encoder = pipe.text_encoderUnboundLocalError: local variable 'pipe' referenced before assignmentTraceback (most recent call last): File "C:\Users\PC_User\AppData\Local\Programs\Python\Python310\lib\runpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "C:\Users\PC_User\AppData\Local\Programs\Python\Python310\lib\runpy.py", line 86, in _run_code exec(code, run_globals) File "C:\f73639 (1)\sd-scripts\venv\Scripts\accelerate.exe\__main__.py", line 7, in <module> File "C:\f73639 (1)\sd-scripts\venv\lib\site-packages\accelerate\commands\accelerate_cli.py", line 45, in main args.func(args) File "C:\f73639 (1)\sd-scripts\venv\lib\site-packages\accelerate\commands\launch.py", line 1104, in launch_command simple_launcher(args) File "C:\f73639 (1)\sd-scripts\venv\lib\site-packages\accelerate\commands\launch.py", line 567, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd)subprocess.CalledProcessError: Command '['C:\\f73639 (1)\\sd-scripts\\venv\\Scripts\\python.exe', 'train_network.py', '--network_module=networks.lora', '--pretrained_model_name_or_path=', '--train_data_dir=C:\\f73639 (1)\\lora_train_data\\train_dir', '--output_dir=C:\\stable-diffusion\\stable-diffusion-webui\\models\\lora', '--caption_extension=.txt', '--shuffle_caption', '--prior_loss_weight=1', '--resolution=512,512', '--enable_bucket', '--bucket_no_upscale', '--min_bucket_reso=320', '--max_bucket_reso=960', '--train_batch_size=1', '--learning_rate=1e-3', '--lr_warmup_steps=0', '--text_encoder_lr=1.5e-4', '--unet_lr=1.5e-3', '--max_train_epochs=2', '--mixed_precision=fp16', '--save_precision=fp16', '--xformers', '--max_data_loader_n_workers=4', '--save_every_n_epochs=1', '--save_model_as=safetensors', '--output_name=lora_sample_hosi', '--clip_skip=2', '--seed=23', '--network_dim=8', '--network_alpha=1', '--max_token_length=150', '--cache_latents', '--lr_scheduler=cosine_with_restarts', '--lr_scheduler_num_cycles=1']' returned non-zero exit status 1. -- 2023-04-14 (金) 21:20:16 - '--pretrained_model_name_or_path='ってバックスラッシュがどうこう以前にモデルへのパスが1文字も入力できてないのでは。記述ミスでエラーが出ても '--pretrained_model_name_or_path=C:\\sd\\models\\aom3.safetensor' のように間違ったパスがちゃんと表示されるはずですから。メモ帳以外のテキストエディタやwindowsに標準搭載されているワードパッドを使ってもbatファイルを編集できませんか? -- 2023-04-15 (土) 12:32:46
- 変な文章が混じってしまいました。最後の一文は気にしないで下さい。つまりちゃんとパスが記述できていない可能性が高いのでメモ帳以外の別のアプリを試してみてはどうか…という提案でした -- 2023-04-15 (土) 12:45:28
- ファイル名が被った時に自動で付く(1)の前にスペースが入るので、それも消した方が安心だとおもいまんす -- 2023-04-15 (土) 13:56:58
- ワードパッドで編集してみても同じでした…もしかしてこっちのエラーが原因なのでしょうか?
W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'cudart64_110.dll'; dlerror: cudart64_110.dll not found I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'cudart64_110.dll'; dlerror: cudart64_110.dll not found: I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.WARNING[XFORMERS]: xFormers can't load C++/CUDA extensions. xFormers was built for: PyTorch 1.13.1+cu117 with CUDA 1107 (you have 1.13.1+cpu) Python 3.10.9 (you have 3.10.6) Please reinstall xformers (see https://github.com/facebookresearch/xformers#installing-xformers)Memory-efficient attention, SwiGLU, sparse and more won't be available. Set XFORMERS_MORE_DETAILS=1 for more details
なんかこれを見る感じxformersのバージョンとCUDAとpythonのバージョンがかみ合ってないとかですかね…たびたび本当にすみません -- 2023-04-15 (土) 19:55:49 - その種類のエラーは sd-scripts のクリーンインストールで環境を一新すれば解決すると思います。おそらくですが。しかしメモ帳やワードパッドを使ってbatのモデルパスを書き換えることが出来ないのは別の問題なんじゃないかと思います。でもどうなんでしょう…一応試してみてほしいです。sd-scripts をフォルダごと削除したあと install_sd_scripts.bat を実行して sd-scripts をクリーンインストールしてみてください。 -- 2023-04-15 (土) 20:19:51
- すみません、解決出来ました!パスが一文字も認識されない原因としては、
training_command_sampleの 書き換えここまでと書いてあるよりも下の欄の
--save_model_as=ckpt ^ をsafetensorsにワードパッドで書き換えたらパスが認識されて無事学習が完了しました。まさか欄外まで変えなくてはならないとは、、、まあ冷静に考えたら当然か。
素人がお騒がせいたしました。貴重な体験となりました。ありがとうございました! -- 2023-04-16 (日) 11:22:09
- 返信ありがとうございます!X:の書き換え、ご教授いただいたプロパティからのフルパス記述もコピペでやってみましたが駄目でした。
- そこには使用するモデルへのフルパスを記述する必要があります。X: の部分は使っているストレージのドライブ名なので、もしご使用のストレージがCドライブならC: と置き換えて記述します。さて簡単にフルパスの取得方法のお伝えします。使用したいモデルファイルを右クリックして[プロパティ]を開くと、表示されたウィンドウの中段ぐらいに[場所]という項目があるはずです。その右欄に記されているのがモデルファイルの含まれたフォルダへのパスで、フルパスはそこにモデルのファイル名を足したものになります。仮にフォルダへのパスが 『C:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion』だった場合、そこに \ (ディレクトリの区切り文字。ここのコメント欄の都合上バックスラッシュですが実際は¥マーク(半角)を用います)を1文字足してからモデルのファイル名『aom3.safetensers』や『Basil_mix_fixed.safetensors』などを追記します。つまり『C:\stable-diffusion\stable-diffusion-webui\models\Stable-diffusion\aom3.safetensers』といった風の記述となります。この説明で伝わるといいのですが…がんばってください -- 2023-04-14 (金) 20:15:01
- accelerate configを実行し、質問に「This machine」「No distributed training」「NO」「NO」「NO」「all」「fp16」と回答したところ、最後の「fp16」と回答した後、FileExistsError: [WinError 183] 既に存在するファイルを作成することはできません。とのエラーが出てしまいます。対処方法があれば宜しくお願いいたします。 -- はぐれとしあき? 2023-04-15 (土) 14:00:30
- マルゼン式って、10_maruzenと10_shobu clothesと10_mizugiの3フォルダを格納した1つのフォルダを指定して、1回学習を実行するんですか? それともそれぞれのフォルダごとに1回行って、計3回の学習をする感じですか? -- 2023-04-15 (土) 17:52:10
- 超初心者向け 5+0ステップで覚えるLoRA制作 (2023/3/31) に入っているバッチファイル。
sample_lohaもsample_loconも--network_module=lycoris.kohyaとなっています。 LoConで出す場合、ここを--network_module=locon.locon_kohya ^とすれば問題がないと書いてありますが、ここを書き換えると様々なエラーが出て学習できません。
どなたかLoConの学習方法をご教示いただけませんか?それとも現在のbatの設定でLoCon学習ができているのでしょうか?お願いします。 -- 2023-04-15 (土) 21:44:07- すみません、自己レスですけど、"sd-scripts\LyCORIS\lycoris\kohya.py" の中で引数loraならLocon、LohaならLohaみたいな条件分岐ぽいのがあったので確認したら
sample_loconの方は、--network_args "algo=lora" になっており、sample_lohaの方は--network_args "algo=loha"^ になっていました。
これはモデルを設定する引数が変わったがコメントが以前のままであった、バッチは正常に動いていた。という認識でよろしいのでしょうか? -- 2023-04-15 (土) 22:10:46
- すみません、自己レスですけど、"sd-scripts\LyCORIS\lycoris\kohya.py" の中で引数loraならLocon、LohaならLohaみたいな条件分岐ぽいのがあったので確認したら
- wd1.5で学習すると毎回エラーでて始まらなかったけど「--v2」を足すだけでよかったんだね -- 2023-04-16 (日) 12:44:59
- Windows向け学習実行フロントエンドで作ったLoRAだとmodules.devices.NansException: A tensor with all NaNs was produced in Unet. Use --disable-nan-check commandline argument to disable this check.ってなって画像生成に使えないけど分かる方います?Windows向け学習実行バッチファイルでLoRA作ったなら問題ないんだけど -- 2023-04-17 (月) 10:05:57
- OrangeMix2でマイナーキャラのエロ出したいんだけど、学習モデルはOrangeMix2を使っていいんだろうか?それとも学習にオススメされてるやつを使うべき? -- 2023-04-18 (火) 02:51:00
- gradient_checkpointingオプションって実行コマンド編集時に
下の方にある引数がずらっと並んでいるところに同じ形式で、書き足す認識で良いんですよね?
有効になっているか確認する手段ってありますか? -- 2023-04-18 (火) 17:40:19
- 基本同じモデルでやるのが基本…だが、おすすめのモデルでは上手くいかない事もあるし、好みのLoRAが使いたいモデルで相性が悪かったり、他のキャラで上手くいった学習が別のキャラでは上手くいかなかったりする。とにかく試すしかない。オプションは表記ミスあれば無効エラー出るから判ると思う。 -- 2023-04-18 (火) 19:50:47
- gradient_checkpointingオプションって実行コマンド編集時に
- 過学習してるのか学習足りないかの判断ってどうやってしてますか?いまいち足りてんのか足りてないのかよく分かんなくて……何かやけに同じポーズばっかりになるのは学習素材の問題なんですかね? -- 2023-04-20 (木) 00:45:29
- Kyohya版で3060Tiを使用しLoraの学習を行おうとしたのですが、学習が始まった直後にLOC_
RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.21 GiB already allocated; 0 bytes free; 7.31 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALCONF
とのエラー構文が表示され学習が行えません…。
他の方からの情報を見る限りVRAM8gbでも動作する筈だと思うのですが自分は一体何を間違えてしまったのでしょうか? -- 2023-04-21 (金) 17:10:56- 実行文:
accelerate launch --num_cpu_threads_per_process 6 train_db.py --pretrained_model_name_or_path=D:\stable-diffusion-webui\models\Stable-diffusion\AOM3\AOM3A1_orangemixs.safetensors --train_data_dir=D:\Lora_lerning\sd-scripts\train_data --reg_data_dir=D:\Lora_lerning\sd-scripts\reg_data --output_dir=D:\Lora_lerning\sd-scripts\output --prior_loss_weight=1.0 --resolution=512 --train_batch_size=1 --learning_rate=1e-6 --max_train_steps=1600 --use_8bit_adam --xformers --mixed_precision="bf16" --cache_latents --gradient_checkpointing -- 2023-04-21 (金) 17:11:55 - 環境が分からないから何とも言えないけどOSや他のアプリの描画にもVRAMは消費されるのでそういうバッドケースが積み重なると8GBでも空き容量が足りなくなるかもしれない。不要なアプリを閉じて試してみるのはどうだろう -- 2023-04-22 (土) 14:20:47
- 解決しました!うっかりNVIDIA Containerを閉じ忘れていたらしく、このソフトがVRAMを1gb近く占有していたみたいでした…
こんなしょうもない質問をして申し訳ありませんでした。回答して頂きありがとうございました! -- 2023-04-22 (土) 17:09:03
- 解決しました!うっかりNVIDIA Containerを閉じ忘れていたらしく、このソフトがVRAMを1gb近く占有していたみたいでした…
- 実行文:
- 超初心者キットを使用させていただいているものです。training_command_sample_loha.batで実行したいのですが、手引きによると正規化画像フォルダは指定しなくてよいとのことだと思うのですが、正規化画像が見つかりませんとのエラーメッセージが出ている状態です。これはどうすればよいでしょうか…?初歩的な質問で申し訳ありません。 -- 2023-04-22 (土) 16:05:58
- 超初心者キットを使って、Step4までうまく行きました。Step5で設定書き換えて実行すると「UnboundLocalError: local variable 'log_with' referenced before assignment」と出ており、chatGPTにエラー文投げたところ
「ローカル変数 'log_with' が代入される前に参照されたことが原因であることを示しています。このエラーは、 'train_util.py' ファイルの prepare_accelerator() 関数の中で発生しました。…」
と言っています。 locon版・loha版両方で同じことになりました。なにか設定をおかしくしてしまったのでしょうか…? -- 2023-04-22 (土) 18:23:09- 直近の更新で発生したバグらしい。sd-scriptsを最新版に更新すれば直った。 -- 2023-04-23 (日) 08:32:58
- 返信ありがとうございました!無事作成が始まりました。 -- 2023-04-23 (日) 12:20:45
- 直近の更新で発生したバグらしい。sd-scriptsを最新版に更新すれば直った。 -- 2023-04-23 (日) 08:32:58
- training_command_sample.batを実行してもraise subprocess.calledprocesserrorが出て学習ができませんでしたが、以下変数の"(ダブルクォーテーション)を削除したところ動きましたので報告しておきます。
変更前
set ckpt_file="絶対パス"
set output_path="絶対パス"
変更後
set ckpt_file=絶対パス
set output_path=絶対パス
りーどみー.txtの通りに""で囲って動く人が多数?かと思いますが、詰まったひとがいれば参考にしていただければと思います。
※以下どうでもいい話です
powershellから別の環境を作り'(シングルクォーテーション)で絶対パスを囲って上記変数に格納しtrain_network.pyを実行したところ動作を確認しました。
両環境のtrain_network.pyを見ても違いが見つからず、原因がわかりません。
自分のPythonが3.10.9なのが原因でしょうか(りーどみー.txtでは3.10.6推奨)
パスの指定が共通の記法にならない原因がわからず困っています。。。(とりあえず動いてはいるので良いのですか) -- 2023-04-22 (土) 20:27:56 - トリガーワーズをいちいちcivariで確認するのめんどいですけど、何か方法ありますか? -- 2023-04-23 (日) 17:46:30
- LORAの名前をトリガーと同じに変えてしまうとか。適用量の数値も名前に追記しておく。あるいはサムネイルの画像をうまく生成できたときのやつに変えておけばそれをpng infoにロードそて参考にできる。あとはサムネイルの右上クリックしてでてくる学習メタデータで最頻度のタグワードが一番上にでるのでそれがだいたいトリガーワードになってる -- 2023-04-24 (月) 14:53:51
- 特定の絵柄で特定のキャラを生成したい場合、dreamboothで学習データごと作るのか、train-toolでLoRaファイルを作るのではどちらが良いのでしょうか -- 2023-04-23 (日) 21:46:57
- Dreamboothは学習時間かかるし効果が薄い、ファイルサイズ大きいのでやるメリットないと思います -- 2023-04-24 (月) 14:45:39
- 生成しようとするとmodel is not found as a file or in Hugging Face, perhaps file name is wrong? / 指定したモデル名のファイル、またはHugging Faceのモデルが見つかりません。ファイル名が誤っているかもしれません。と出てきます。クリーンインストールも試しましたが効果なかったです。この場合どうすればよいでしょうか。何か確認するべきファイルの場所等はありますでしょうか。 -- 2023-04-23 (日) 22:45:43
- モデルの名前を直接入力していませんか? そのモデルのファイルパスを入力してください。C:\toshiaki\Stable-diffudion-webui\models\Stable Diffusion\AbyssOrangeMix などです。 -- 2023-04-25 (火) 07:46:36
- 解決しました。教えていただきありがとうございます。 -- 2023-04-25 (火) 11:55:32
- モデルの名前を直接入力していませんか? そのモデルのファイルパスを入力してください。C:\toshiaki\Stable-diffudion-webui\models\Stable Diffusion\AbyssOrangeMix などです。 -- 2023-04-25 (火) 07:46:36
- 「kohya_ss GUIを利用する場合」の導入方法の「2.学習環境&GUI機能のインストール」の4行目の仮想環境を起動するコマンドの最初の「¥」はいらないのかんじで大丈夫ですか? -- 2023-04-24 (月) 15:32:39
- それで大丈夫です。
あと最新版だとPowerShell使わずにbatファイルで導入するように変更されてたので導入手順を更新しやした。 -- 2023-04-24 (月) 22:15:53
- それで大丈夫です。
- gradient_checkpointingをsdscripsにどうやって入れる?のでしょうか・・・ -- 2023-04-24 (月) 16:11:20
- '--train_data_dir' は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。って表示されてしまいます。どうすればよいでしょうか? -- 2023-04-25 (火) 11:55:02
- 全部はしらない、知ってるのはとしあきバッチだけ。①フォルダーは半角スペース禁止。日本語も避けた方がいい...かな?(ただしtrain_data_dirの中だけは半角スペースok)Program Files (x86)に入れてる人は速攻移動させましょう
②バッチファイルをダブルクリックではなく、CMDを立ち上げ、CMD内でcreate_json.batとかloha.batとかのあるフォルダへ移動しそこから.\create_json.batとかのコマンドをタイプして起動させる(CMDの立ち上げ方、移動の仕方はAI chatかgoogleに聞いて)
③scriptsが壊れてるかもしれないから、1度scriptのフォルダを消して、再度scriptを入れ直すといいかも。https://wikiwiki.jp/sd_toshiaki/LoRA#z03bbbb9辺り参照。。
④python3.10.6とpipは導入されてる?(それぞれの導入の仕方やバージョンの確認はAIに)pipはアップデートしないでok。⑤りーどみー.txtとかの上にバッチファイルを落として開き、その中のpathの宛先は本スレ情報とあってる?set sd_path=".\sd-scripts"とかsetimage_path="%~dp0\lora_train_data\train_dir"など。画像と本スレで書いてあることが違う時は、本文に書いてある方が正しいみたい
⑥教師画像は日本語名や全角にしていない?名前つけないで1,2,3,4,.......にしてあるかな?
⑦教師画像とタグのtxtの数は合ってるかな? -- 2023-04-28 (金) 08:28:50
- 全部はしらない、知ってるのはとしあきバッチだけ。①フォルダーは半角スペース禁止。日本語も避けた方がいい...かな?(ただしtrain_data_dirの中だけは半角スペースok)Program Files (x86)に入れてる人は速攻移動させましょう
- 以前気付いてる人いたけどバッチ増やしすぎると仮想メモリ使い始めて逆に遅くなるっぽい -- 2023-04-28 (金) 21:54:58
- 今日「超初心者向け 5+0ステップで覚えるLoRA制作 (2023/3/31)」の所で実装して、無事1つLoRAファイルができました。
ですが、次の違うLoRAを作ろうと、lora_train_data\train_dir内の10_aaaフォルダをリネームして10_bbbにした所、「画像がありません」とエラーが出てしまいました。
エラーを見ると10_aaaの中のzzz.jpgファイルがない記述のエラーでした。(10_bbbに画像は入れています)10_bbbを10_aaaに戻してみましたが、同様に10_aaaの中のzzz.jpgファイルがない記述のエラー内容がでてしまいました。再起動やアップデートを行いましたが、改善しませんでした。
chatGPTに全文入れて聞いてみましたが解決しませんでした。ご存じのかたいればお力添えいただけたら幸いです。
エラーコードは下記です。
assert abs_path is not None, f"no image / 画像がありません: {image_key}"AssertionError: no image / 画像がありません: F:\sd\sd_learning\lora_train_data\train_dir\10_aaa\xxx.jpg -- 2023-04-29 (土) 00:40:04- すみません、自己解決しました。create_json.batを実行し、marge_clean.jsonを再生成したら実行できました。
ですが、training_command_sample_loha.batの中でset json_file="%cd%\marge_clean.json"と指定しているのでそこで再生成する流れなのかなと思っていたのですが、この部分を改善すればtraining_command_sample_loha.batを起動するのみで次のLoRAが作れるようになるでしょうか。 -- 2023-04-29 (土) 00:53:09- かなり複雑な質問なのでちゃんとした解答が出来ているか分かりませんが。メタデータの出力をLoRAの生成作業のなかで済ませたいというのなら create_json.bat の18行目『set json_path=%~dp0』の記述がある行から51行目(ぐらい)の『python finetune\clean_captions_and_tags.py "%json_path%\marge.json" "%json_path%\marge_clean.json"』までの34行分(ぐらい)のスクリプトを training_command_sample_loha.bat の 『set json_file= "%cd%\marge_clean.json"』 の記述がある行よりも上の部分に移植すればそのように動作すると思います。 -- 2023-04-29 (土) 19:08:10
- 詳細の行数や工程まで教えていただきとても助かりました、早速試してみます!ご返答いただきありがとうございました! -- 2023-04-29 (土) 19:24:48
- すみません書き忘れていました。移植する場所はset json_file=...のすぐ上が良いと思います。当該スクリプトはローカル環境変数のsd_pathとimage_pathを参照しているため、そのふたつの変数宣言文より前にスクリプトを書いてしまうと未定義の変数を参照しようとしてエラーが出てしまいます。 -- 2023-04-29 (土) 20:40:20
- お返事が遅れました!検証・修正案までいただいて改めてありがとうございます! -- 2023-05-03 (水) 17:16:32
- すみません、自己解決しました。create_json.batを実行し、marge_clean.jsonを再生成したら実行できました。
- LoRA_UIのオプティマイザ引数を複数書くのは、どうすれば良いのですか?実行するとエラーが出ます。””で囲むとパーサーでコンマ分離されるからかな? -- 2023-04-29 (土) 13:35:22
- 絵師再現LoRaを使用しているのですが、その絵柄に寄せる事ができません。パソコンのスペックの問題ですかね?ちべたいの作例などを試しもしました。 -- 2023-05-03 (水) 16:49:54
- gradient_checkpointingオプションの付け方をお教えくださいませ -- 2023-05-03 (水) 18:51:25
- 「としあきbatの設定例」として説明を追記しました。 -- 2023-05-04 (木) 09:59:28
- としあきbatが欲しかったのですが、再アップしていただけませんか...。今日の今日公開停止になったようで...。 -- りて? 2023-05-05 (金) 10:11:27
- 実行するときネット接続ないとエラーになりますが、どこに繋いでるのでしょうか? -- 2023-05-07 (日) 13:00:22
- 状況によりますが、十分な環境構築が済んでいるなら、Python関連のバージョンチェックだけが行われるはず。エラーは出ても注意喚起のみで停止はしないです。環境構築はまだなら、学習に必要なプログラムが自動ダウンロードされると思います。 -- 2023-05-07 (日) 15:59:03
- どこかに教師画像とか情報アップしたりなんだりしてないなら安心ですが・・・ -- 2023-05-08 (月) 12:17:24
- 状況によりますが、十分な環境構築が済んでいるなら、Python関連のバージョンチェックだけが行われるはず。エラーは出ても注意喚起のみで停止はしないです。環境構築はまだなら、学習に必要なプログラムが自動ダウンロードされると思います。 -- 2023-05-07 (日) 15:59:03
- 超初心者向けのhosiのサンプルの生成すら満足にできず自作LORAはあきらめました -- 2023-05-07 (日) 14:14:35
- 学習を実行すると、.txtファイルを画像のファイル名と同じ名前で同じフォルダに作成しているのに、neither caption file nor class tokens are found. と出るのですがどうすればよいでしょうか?一応それでも学習は進みます。 -- 2023-05-07 (日) 16:09:09
- もしそれで学習できているなら、気にすることはないと思います。
それでもLoRA完成品に問題があるなら、ディレクトリに問題があるかもしれないので、構成例を詳しく教えて下さい。train_dir
├ 10_AAA
├ 1_BBB
あと、エラー文のスクショをお願いします(DB形式かファインチューン形式が気になる)。助けになれるかは知らないですけど。 -- 2023-05-07 (日) 16:33:43- 解決しました。.tomlファイルにcaption_extension='.txt'を記述してなかっただけでした。お騒がせしてすみませんでした。ちなみに、としあきbatは使用せずにDB方式で学習させようとしてました。 -- 2023-05-07 (日) 17:04:08
- もしそれで学習できているなら、気にすることはないと思います。
- 教師画像の1.ピクセル数、2.正方形がいいのか、3.アスペクト比が違うのが混ざっててもいいのか、背景は白がいいのか写真のままでいいのか、とか分かると有り難いです・・・ -- 2023-05-08 (月) 15:12:18
- どれで何を学習するかによるけど、例えば現状一番良く使われてるsd-scriptsでLoRAを作るなら、--enable_bucketでバケットを有効化すれば全部勝手に調整してくれるので、どれもそんなに気にしなくてOKだと思います。ただ、過剰に大きすぎる(縦横4000pixel超えとか)とエラーが出ることもあるらしいので、そういう画像はちょっと小さくした方がいいかも。背景はたくさんの画像でそれぞれバラバラならそのままでも良いですが、変に特定のものに偏ってるとか、学習画像自体が少ないなら抜いたほうが良さそう(経験談)。とりあえず背景ありでやってみて、背景の名残みたいなのが出てくるみたいな違和感のある結果なら抜いてみてはどうでしょうか。とにかくやってみるのが大事。 -- 2023-05-09 (火) 22:59:15
- サイズと背景加工した方がいいのはDreamBoothの方だと聞いた。全部512で学習してるらしい -- 2023-05-10 (水) 18:50:19
- そこにセオリーはないでしょう。黎明期なんだから動けば良い。目標再現度は人によって違うので議論は難しい。
バケットサイズの定義にもよる。解像度拡大すれば、学習できる情報が増える反面、それが過学習にトリガーになる可能性がある。学習時間が増えればとしからクレームがくる。
それは誰も検証できていないし、検証するよりも、LoRA以外のもっと良い学習方法が確立されていくのだから、する必要もないです。動きさえすれば良いです。
なので、期待するような情報は、多分積極的には追記されないかな。 -- 2023-05-10 (水) 21:33:14
- すみません、としあきbat(超初心者向けLoRA導入セット)が欲しいのですが。どなたか譲ってくださいませぬか。 -- 2023-05-10 (水) 11:47:29
- ファイル自体は再配布おkらしので誰か再配布してくださると助かります。 -- 2023-05-10 (水) 11:48:32
- パラメーターのページにある目標学習率とか目標学習度ってどこで把握すればいいんでしょうか? -- 2023-05-11 (木) 08:44:53
- としあきbatステップ①の画像のタグ付けなんだけど一括ディレクトリで処理するとinput path is not a directoryで処理できない。単一処理だとワードは出てくるけど、画像フォルダにtxtが出てこない。 Sd-Scriptsのインストールが間違ってる? -- 2023-05-11 (木) 17:56:14
- 直リンの定義を知らず、一時的にとしあきbatをアップしてすみません。今は削除しました。 -- 2023-05-11 (木) 20:18:06
- (つづき)特に前回削除時と同じURLだったのがまずかったです。 -- 2023-05-11 (木) 20:25:20
- 設定詰めたのが上手くいかない一方、本番前のお試しで作ったのが望外のいい出来になったりとぜんぜん分からない、俺たちは雰囲気で学習をやっている。 -- 2023-05-12 (金) 22:43:02
- kohya_ssを導入してSource Modelタブから学習に使うモデルを選ぼうとしたのですが、モデルの置いてあるファイルに移動したのに何故かモデルが表示されません…
使う予定だったモデルはAnythingV5V3_v5PrtRE.safetensorsですが何か他に設定しないといけないのでしょうか? -- 2023-05-13 (土) 02:26:10- 自己解決しました… -- 2023-05-13 (土) 03:16:29
- フォルダ名に指定したプロンプトはcaptionに追加して学習されるのに最初からcaptionに含める意味ってなんですか?このことは氏のnoteで明示されてますけど -- 2023-05-13 (土) 12:43:31
- としあきbat(超初心者向けLoRA導入セット)の再配布おねがいします -- 2023-05-13 (土) 18:52:27
- としあきbatのテストの星や、civitaiでダウンロードしたLoRAは反映されるのですが、自分で作ってみたLoRAを使ってみても全く変化しません…この場合、LoRA制作の過程にミスがあるだけでしょうか? -- 2023-05-14 (日) 23:35:51
- ご質問ですが、Lora学習のはじめにネット接続しにいくのですがこれってどこかに何かアップしてます?例えば版権みたいなものだったりあまり接続されると嬉しくない教師素材もあるので、皆さん気にしてないのかな、と・・・ -- 2023-05-15 (月) 10:46:15
- としあきbatでmin_snr_gammaと min_snr_gamma=%min_snr_gamma%付け足してlora作っても最後に”内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチファイルとして認識されていません”とでるんだけどたすけてとし -- 2023-05-15 (月) 17:12:09
- フロントエンドでfine tune方式やろうとしても--in_jsonが指定されなくてDreamBooth方式で認識されてる? -- 2023-05-15 (月) 21:24:10
- network_weights="再開したいファイルのフルパス"で指定して、元々のパラメータのステップ、学習率を1/10にして再学習させて精度あげたいんだけど、どうも新しく学習してるような結果しか出さない。条件他にあるか、パラメータとか間違ってますか? -- 2023-05-17 (水) 11:24:42
- 最近ようやく学習に手を出し始めたんだけど、一番簡単だと言われてるキャラ再現のLoRAすら全然うまくいかない……。ここの学習成果の設定数値を参考にして教師画像50枚程度でやってるんだけど、生成される画像同士はちゃんと似たようなキャラが出てくるのに、そのキャラが再現したい教師画像のキャラに似てない(雰囲気だけは辛うじて似ている)これは教師画像の質や数の問題なのか、それとも学習設定の問題なのか…… -- 2023-05-20 (土) 12:31:29
- 初めはそんなもんだよ。ここの値は参考にならない、というか最適値は誰も知らない。
画像見ないとわからないけど、「ちゃんと似たようなキャラ」→過学習(Epoch数多すぎ)or教師画像のキャプションとタグ付けが不適当。
「教師画像のキャラに似てない」のは、U-Net,Text EncoderどちらかのLearning rateが低い(単純に設定値が低いorスケジューラの都合で実際のLearning rateが小さくなる)or学習量が不足しているから。ここで、学習量は学習率Epoch数×Learnig rate×スケジューラによる係数に比例する。
それでようやく数シードに1枚は似てる画像が出てくるレベルに達せるかも。 -- 2023-05-20 (土) 17:05:07
- 初めはそんなもんだよ。ここの値は参考にならない、というか最適値は誰も知らない。
- 参考値は意味ないぞ。俺も色々実験してみたけど、簡単なキャラや衣装が複雑なキャラでも同じ枚数や設定でやっても複雑の方が進まないね。複雑の方は覚えることが多いのか過学習気味になりやすいからそれを見ながら学習率を調整していくしかないんだよな。 -- 2023-05-21 (日) 22:45:10
- 「顔は覚えるのに服は覚えず、服まで覚えさせると顔が過学習する」みたいなの結構ある。最初は過学習覚悟で作って適用時に弱めたりBlockWeightで調整するとかでもいいかも。 -- 2023-05-22 (月) 22:25:16
- LoRA毎に10以上ある数値設定の最適値探るのはさすがに現実的ではないかな… -- 2023-05-23 (火) 23:02:33
- マジで?使用頻度の高そうなLoRAは全部調整してる。慣れたらそんなに手間じゃないし、グチャグチャになるオーバーフィットLoRAが綺麗に描画されるようになると気持ちいいよ。本当にこれが最適解なのか?っていう疑念は常に付き纏うし、どう足掻いても無理な奴もあるけど…。 -- 2023-05-28 (日) 10:37:34
- LoRA毎に10以上ある数値設定の最適値探るのはさすがに現実的ではないかな… -- 2023-05-23 (火) 23:02:33
- 質問なのですが、学習に正則化画像を用いない場合繰り返し数を1以上にする必要はありますか? 以前拝見した記事には、繰り返し回数は正則化画像と教師画像の枚数を合わせるために指定するものだと書かれていたのですが、本当かどうか自力では判別ができず…。どなたか教えていただけますと幸いです。 -- 2023-05-23 (火) 16:37:49
- RadeonでもLoRAの学習はできますでしょうか?
Radeon 6600XT VRAM 8GBです。 -- 2023-05-24 (水) 12:40:34 - Loraのプロンプトに書く名前が同じなのですがどうすれば名前を変更できるでしょうか? -- 2023-05-28 (日) 06:29:54
- PS F:\hitiokiwa0531\sd-scripts> .\venv\Scripts\activate(venv) PS F:\hitiokiwa0531\sd-scripts> accelerate launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=X:F:\stable-diffusion-webui\models\Stable-diffusion\AnythingV5_v5PrtRE.safetensors --output_dir=F:\TrainingData\outputs --output_name=biko --dataset_config=F:\TrainingData\datasetconfig.toml --train_batch_size=1 --max_train_epochs=10 --resolution=512,512 --optimizer_type=AdamW8bit --learning_rate=1e-4 --network_dim=128 --network_alpha=64 --enable_bucket --bucket_no_upscale --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --lr_warmup_steps=500 --keep_tokens=1 --shuffle_caption --caption_dropout_rate=0.05 --save_model_as=safetensors --clip_skip=2 --seed=42 --color_aug --xformers --mixed_precision=fp16 --network_module=networks.lora --persistent_data_loader_workersFatal error in launcher: Unable to create process using '"F:\????\hitiokiwa0531\sd-scripts\venv\Scripts\python.exe" "F:\hitiokiwa0531\sd-scripts\venv\Scripts\accelerate.exe" launch --num_cpu_threads_per_process 1 train_network.py --pretrained_model_name_or_path=X:F:\stable-diffusion-webui\models\Stable-diffusion\AnythingV5_v5PrtRE.safetensors --output_dir=F:\TrainingData\outputs --output_name=biko --dataset_config=F:\TrainingData\datasetconfig.toml --train_batch_size=1 --max_train_epochs=10 --resolution=512,512 --optimizer_type=AdamW8bit --learning_rate=1e-4 --network_dim=128 --network_alpha=64 --enable_bucket --bucket_no_upscale --lr_scheduler=cosine_with_restarts --lr_scheduler_num_cycles=4 --lr_warmup_steps=500 --keep_tokens=1 --shuffle_caption --caption_dropout_rate=0.05 --save_model_as=safetensors --clip_skip=2 --seed=42 --color_aug --xformers --mixed_precision=fp16 --network_module=networks.lora --persistent_data_loader_workers': ?????????????????? powershllで自分のイラストを学習させようとするとこのエラーが出ます ???の意味が分かりません助けてください システム環境の設定変えたりほかのバージョンのpython削除したりしましたが解決しません -- 2023-05-31 (水) 17:59:55