Welcome to 画像生成AI用LoRA作成支援wiki(仮)
BBSPINK 【StableDiffusion】LoRAメインのAIエロ画像情報交換スレ 用のwikiです 
───説明文───
主にLOLAについてまとめるスレですが、編集の方針は定まっていませんスレでお尋ねください
最初はなかなか人が集まらないので建設的な内容は自由に書いちゃっていいと思います(多分)
とりあえず始めないと進まないので、現状(25-06-11)では管理者ではない人が勝手にスレからからコピってます、削除改変上等!
最初の転載者はlola初心者で立ち位置はwebサービスをメインに使っている勢です
最初の転載者はlola初心者で立ち位置はwebサービスをメインに使っている勢です
発祥
0013...φ(・ω・`c⌒っ
2025/05/29(木) 03:29:42.69ID:arwmGVkD
しばらくまともに寝てなかったから夕食後爆睡してたわ…
とりあえすwikiは取得した
画像生成AI用LoRA作成支援wiki(仮)
https://wikiwiki.jp/lora/
注:管理者(オーナー)は>>13 ID:arwmGVkDです
Wikiの方針(案)
管理者の意思(スレより抜粋)
現時点での個人的な案だけど
まずはずらっと並んでいる設定を大きく3つに分けて
1. ファイルの入出力などの基本的な設定
(ほぼ説明不要な基本)
2. グラボのVRAMや機能に関連する設定
(グラボによって最適な設定が変わるのでまずどんなグラボでも動くような最低ラインを提示してから性能によって追加できる項目の紹介など)
3. オプティマイザーやエポックなど学習に関する設定
(人によって求めるクオリティが違うのでまず最速で最低ラインなクオリティのものと高クオリティなものが完成する値を提示して後は好みの値を探しましょう的な締めくくり)
3はこれだけだとわりと他のサイトでもよく見かける内容
だけどバッチとMAXtrainとか学習途中にも生成されるファイルなど初心者が分かりにくく罠になりやすそうな項目の説明はあまり見かけないのでそのあたりを重点的に…
みたいにすると良いかなぁとか
目的としては初心者でも分かりやすいようになるべく専門的な内容を省いて伝えること
なので章立ての緻密なものは期待しないように
とりあえずグラボ関連はこの設定にすればメモリ節約できて低価格のグラボでも動くとかこの機能は〇〇以降のグラボじゃないと厳しいみたいになる予定
このスレはエロ系スレだけどwikiでエロ系のことを書かなければ問題ないかと
今のところcolabでkohyaを使ったLoRA作成はできないこともないことはないみたいだけど
stablediffusion自体が有料版のcolabでないと使えないのめ画像生成AIは自宅pcで制作している人が大半
またcolabで制作する場合はkohyaの設定だけでなくcolab関連の知識と設定も必要となる
以上のことからcolabでのLoRA作成は初心者向きではないと考えられる
LoRA作成の選択肢として追加で説明するって感じなら分かるけどこれをメインにするのは不適切かなと
管理者の書き込みと思われる
管理者がトリップをつけていないので
LoRA作成自体は単純作業なんだけど初心者は最初の設定でつまずきやすいのよな
だからこそ最初の設定を簡単に説明して間口を広げる必要がある
wikiはググってきた一般人でも観れるようにエロ抜きでこことの関連は書かない
そしてここはエロもwikiの話もok
この方向性でいくつもり
転載者注:上記の書き込みで“ここ”と表現されている部分は、議論されている元スレのことだと思われます
( ´ー`)。о(wiki冒頭部分で~~スレ用と説明に書いたけど、矛盾するから冒頭部分の変更を管理者が意思として変更してほしいな)
スレ民のアドバイス………?
WikiwikiってエロOKだったか?確かダメだったと思うんだが…
seesaawiki 広告うざいけど、こっちを使った方が良いと思うぞ(特に画像)
用語集みたいなのあると良いと思う
初心者として分かりにくかった用語の例を書いておく
スレ民の声
初心者向けなのか...
sd-scriptsに追加された機能の検証とかoptimizer、報酬モデル、蒸留の比較とかなら話し合ってみたかったな
プリセットのまま作成しようとしてもエラーで動かなかったです
よかったらあなたの設定教えてもらえませんか?
用語集みたいなのあると良いと思う
初心者として分かりにくかった用語の例を書いておく
グラボごとの最適な設定とかいう話には非常に興味がある
floatが飛び交う設定群と素材とモデルが入り乱れる地獄をどう計算するのか知りたい
スレ民によるWikiの内容の提供や例示
ステップ:
教師画像で1回計算すると1ステップ
「教師画像のキャプション(タグ)を学習元モデルに流してみて、出てくる画像を教師画像と比較し、教師画像に近づくようにLoRAをわずかに変更する」のが1ステップ
学習率:
1ステップごとにどのくらい変化させるかを表す
大きな値を指定すると速く学習が進むが、変化しすぎてLoRAが壊れたり、最適な状態にまで至れない場合がある
小さい値を指定すると学習速度は遅くなり、また最適な状態にやはり至れない場合がある
・U-Net LR(unet_lr):全体的な画風などに影響
・text_encoder_lr:タグと画像を紐付ける部分の学習率。プロンプトの合致性に影響
・learning_late:U-Net LR、Text Encoder LRの指定がなければ、同一の学習率で上記2つが学習される。
補足 1. 5e-4という様な表記をされている事がある。意味は1. 5 × 10^-4[マイナス4乗] = 0.00015と同じ意味
バッチサイズ:
1ステップで何件の教師画像をまとめて計算するかを指定する値
大きくすれば学習速度は速くなりますが、GPUメモリを消費します、また一般的には精度も高くなるといわれています。(なんで高くなるんだろう?)
総ステップ数:
バッチサイズ×ステップ数 が学習に使われる総件数
LoRA学習における目安Step数は5000~8000くらい
補足 「バッチサイズ1で1600ステップ」と「バッチサイズ4で400ステップ」は同じ結果にはならない
同じ学習率の場合、一般的には後者のほうが学習不足になる。学習率を大きくするかステップ数を増やす必要がある
エポック(epoch):
教師画像が一周学習されると1エポック
参考にさせて頂いたサイト:
https://github.com/kohya-ss/sd-scripts/blob/main/docs/train_README-ja.md
https://note.com/konapieces/n/n20d052a8e558
}}