Hyper Network

Last-modified: 2022-11-09 (水) 23:25:32

注意事項

  • Learning rateはデフォのままやるとノイズだらよくわからんのになります。よくわからんのになります。
    • 下でも書いてますが、Learning rateは0.000005 または 0.0000005 のようなすごく小さい数が必要です。
    • ちなみに、画像が悪いのかもしれませんが、0.0000005ではいい結果は得られませんでした。
  • いまからHNやるぜ!って人は絶対にhypernetwork.txtにしないと電気代の無駄になるから注意

動かすための条件など

8GB以上のVRAMがあればとりあえず動くこと確認
RTX2070 (512x512)で 専用GPUメモリ 7.8/8.0GB
モデル関係なく使用できそう?
25分くらいで2500step(500で1回排出
画像の解像度によっておそらく変わると思われる 未検証

0.【重要】学習画像の準備・ベンチマークテスト

1.空のhypernetworkを作る

「Train」タブを開いた後、「Create hypernetwork」タブを開きます。

  • 「Name」
    • ファイル名を入力します。 ※これはなんでも構いません。
  • Modules □768 □320 □640 □1280
    • Modulesについては現状最適な方法が見つかっていないので、全てONで問題ないです。
      ↓の方にあるコメントを見てみるとヒントになるかもです。
  • Add layer normalization
    • レイヤーの正規化?
      アプデで「Enter hypernetwork layer structure」と共に追加された。
      アプデ前はレイヤーの正規化は無しだったらしい
      オーバーフィッティング?を防ぎ、とあるので過学習みたいなものを防ぐ機能なのかも?
      https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/3086
      としあきTIPS
      レイヤーノーマライゼーションってのは強制的にレイヤーを正規化する
      それによって汎化作用が強くなる分、基本的な学習力は落ちる
      というか、とし達の目的を考えたら汎化性より過学習気味な方がいいからむしろオフのがいいやつ
      _____________________
      普通は汎化性能が高いほうがいいんだけど、とし達はそんなのより再現力だから、過学習気味な方がいいのよ
      あと、たぶんだけど活性化関数がなかったせいでネットワークの表現力が足りなくてすぐに重みが発散するのを防ぐためだった気がするレイヤーノーマライゼーション
      逆に大規模な学習データ、例えば奇形化防止HN作るとかならLNオンにしたほうがいいと思う
  • Use dropout
    各ステップでランダムにニューロンの何パーセントかを活性化しないことによって、ニューラルネットワークをス拡散にしようとするものです。最後にコードで確認したところ、30%に設定されていました。つまり、ハイパーネットワークが保存できるデータは30%少なくなりますが、その分ニューロンに学習を続けさせ、死んだニューロン、ブローアウト、バニシングポイントなどの落とし穴を回避できる可能性もあります。これは完全にオプションです。ハイパーネットワークが大きくなればなるほど、それを使用する余裕ができ、トレーニング中に有用性が高まります。
    https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670#discussioncomment-3999660
  • Overwrite Old Hypernetwork
    • 同名のHNを作成時上書きする?
  • Select activation function of hypernetwork
    • linear
    • relu
    • leakyrelu
    • elu
    • swish
      • としあきTIPS
        >HN学習をlayer normalizationオンとreluでHNtrainをLr0.000005とデフォ値の0.00001で2種類3000stepずつ回したもののプレビュー画像にほぼ変化は見られず
        >layer normalizationオフにすると学習は普通にされてるんだけど教授これは一体!
        レイヤーノーマライゼーションってのは強制的にレイヤーを正規化する
        それによって汎化作用が強くなる分、基本的な学習力は落ちる
        というか、とし達の目的を考えたら汎化性より過学習気味な方がいいからむしろオフのがいいやつ
        ReLUいれておけば、今まで見たいに簡単に発散しないはずだから、ReLUだけオンにすればいい]
        ____
        >ReLUだけオンにすればいい
        なんかLN+Reluが一番効率良さそうみたいな記事見たけどReluだけでいいのか…
        サンキュー神様!
        ___
        4回ほどHNでReLU試してみたけどlayer normalizationが悪さしているかまだ確定じゃないんだけど
        layer normalizationとReLUの組み合わせだとレイヤー数関係なく絵柄の学習全然しないわ
        過去に線型モデルのHNで成功してたデータセットでも学習が反映されない
        layer normalizationをオフにして今学習してるからそっちの結果出たらまた言います
        _____
        >HN学習オプションのlinerとreluとleakyrluってどう違うんです?
        わかりやすく例を上げて説明すると
        サイズが320のネットワークを4層使う場合のネットワークの表現力は
        liner = 320 * 4
        ReLU,LeakyReLU = 320 * 320 * 320 * 320
        の差がある、難しい言葉で言うと線形関数と非線形関数の差
        
        でReLUとLeakyReLUはぶっちゃけ大差ない
        MLの知識に関わる説明はいらんと思うから、好みで選んでいいやつ
        一応LeakyReLUはReLUの改良版なんだけど、提案者自身が意味なかったって言ってるから、マジで好みで選んでいい
        _____
        https://atmarkit.itmedia.co.jp/ait/articles/2005/13/news009.html
        ____
        >目指してる汎用性によると思うよ
        >データセットが千枚とか必要そうな漠然とした汎用的な変更なら層を多くして慎重にしたほうが良いだろうけど
        >単に特定のシチュの絵柄だけとかなら層が多くても無駄に学習時間と必要リソースが増えるだけ
        WDみたいな学習をさせたいんじゃなくて、とし達が欲しいのがキャラ再現画風再現だし
        加えて汎化性能の高いベースモデルへのアディショナルなファインチューニングだから、むしろ過学習をさせたほうがいいまであるしな
        なんならピーキーだけどlinerで微調整を行ったほうが簡単に再現度は得られるまである
        _____
  • 「Create hypernetwork」
    • これを押下することで、空のハイパーネットワークptファイルが作成されます。
      学習結果が微妙だった場合に変更をして再度実行でいいと思います。

2.トレーニング設定を決める

  • 「Hypernetwork」
    • 「∨」を押すと「hypernetworks」フォルダ内のptの一覧が表示されるので、先ほど作成した空のptを選択します。
  • 「Embedding Learning rate」
    • HNでは使用しません。
  • 【重要】「Hypernetwork Learning rate」
    • 学習の深度を決める数字です。
      Learning rateは0.000005 または 0.0000005 のようなすごく小さい数が必要
      ※デフォで入っているはずの数値は必ず変更しましょう※
  • 「Batch size」
    • 1のままで大丈夫です。
      ごく一部のグラボではおそらく有効ですが、ほとんどの場合ただ処理が重くなります。
  • 「Dataset directory」
    • 加工済の画像を保存したフォルダのパスを書きます。 もしくは、任意の学習元画像が入ってるフォルダのパスを書きます。
      例)H:\stable-diffusion-webui\traning\学習素材加工済み
  • 「Log directory」
    • なにも弄らなくてよいです。 ※弄ると学習途中のデータなどの出力先を変えることが出来ます。
  • 「Prompt template file」
    • Hypernetworkの学習に使うtxtを指定します。
      「hypernetwork.txt」が用意されているので、それを最初は使いましょう。
      H:\stable-diffusion-webui\textual_inversion_templates\hypernetwork.txt  
      ↑一例)自分の場所を指定してね
    • これらのtxtファイルをメモ帳で開くとわかりますが、学習はそのpromptにそって行われます。
      そのためこれを独自に編集することによって結果が変わります。
      学習させたくないワードを書いておくと良いかもしれないと言われています。
      基本「hypernetwork.txt」でいいです。結果を見て再度同じ学習をさせるときに変えればいいと思います。
  • 「Width」「Height」
    • 学習の事前準備の画像と同じ大きさを指定します。
      512で出力したのであればそのままで大丈夫です。
    • Train an embedding; must specify a directory with a set of 1:1 ratio images と上で書いてある通り
      TI(embedding)は1:1の画像でトレーニングする必要があります。
      Hypernetworkについては1:1じゃなくてもOKそうだけど、512*512以上だとより多くRAMを食べるはずです。
  • 「Max steps」
    • 何step学習を回すかです。デフォは10万が入っています。途中で止めることもできるのでそのままでもよいかもしれません。
      基本的に10万は過剰です。3万くらいで指定して様子見がいいかも
      StepはAUTOMATIC氏曰く、5000程度で似てきたと言っていた。 (93枚のトレーニング画像です。
      「Train」タブの中の「Train」タブを開きます。
      1画像100stepです。トレーニング画像枚数*100step=1epochとなります。
  • 「Save an image to log directory every N steps, 0 to disable」
    • 何stepごとにsampleの画像を出力するか決めます。
      デフォや下記ptファイル生成設定と同数値でもよく、寝てる間に回して結果は普通に画像生成して確認するからという人は0でもいいかもしれません。
      画像生成するときはもちろん学習は止まるので、あまり頻繁に出力するべきではないかもしれません。
      最低でも「100」とか最高でも「1000」とかにするべきかもしれません。 「10」とかは頻繁過ぎ
  • 「Save a copy of embedding to log directory every N steps, 0 to disable」
    • 何stepごとにptファイルを作成するか決めます。
      ここはデフォのままでもよいですし、「100」などの数値にしてもいいです。 ただ、細かくするとそれだけ結果の確認が大変になります。
      Hypernetworkについては1つ80MBくらいあるので頻繁に出力すると容量バカぐいします。
      「250」や「500」とかで指定しておいて、過学習したらその前の段階に戻るとかですればいいと思います。
  • 「Save images with embedding in PNG chunks」
    • 保存した画像にタグを埋め込んでいるようです。
  • 「Read parameters (prompt, etc...) from txt2img tab when making previews」
    • 学習時のサンプル確認に「txt2img」タブで指定したpromptなどを使用します。
      チェックを入れない場合、サンプル画像はランダム生成され比較が難しいため、入れた方がいいでしょう。
      変化が分かりやすいタグ(髪色・型など)や、破綻しやすいタグ(「barefoot, bare arms, standing」セットなど)を入れるといいでしょう。

3.おすすめの設定組み合わせ

上記を読んで設定に迷った場合、目指す方向により好ましい組み合わせがあります。


【中期型】

  1. 「1, 2, 1」「0.000005」(5e-6)
    • メリット:まあまあ反映されてまあまあ崩れにくい。
    • デメリット:満足行くまで回そうとすると崩壊しやすい。

【長期型】

  1. 「1, 2, 1」「0.0000005」(5e-7)
    • メリット:崩壊しづらい。薄化粧程度にしか反映されない(人によって評価は分かれる)。
    • デメリット:かなり反映されづらいため、学習の事前準備をしっかり行わないといけない。

【短期型】

  1. 「1, 1」「relu」「0.00005」(5e-5)

【可変型】

  1. 特定のstepsごとに「0.00005」(5e-5)→「0.000005」(5e-6)→「0.0000005」(5e-7)(一例)のように切り替える。
    • メリット:組み合わせ次第で調整が大きく可能。
    • デメリット:その組み合わせの見極めが必要。

4.実行

一番下 「Train Hypernetwork」を押す

5.トレーニングの止め方

止めると自動的にembeddingsフォルダ内の指定したptにはそのstepまでの学習結果が記録されます。

「Max steps」をまで回ると自動的に学習は止まります。
 textual_inversion⇒学習の日付⇒学習の名前(例:あなる先生)⇒images を見ると学習途中の画像が表示されます。(出力している場合
 ここで十分によい結果が得られてる気がするな?と思った場合は途中で止めても良いかもしれません。
 「Interrupt」を押すことで学習がストップします。

※2個Stablediffusionを使える人なら(例:2PCやローカル+Colab)
 textual_inversion⇒学習の日付⇒学習の名前(例:あなる先生)⇒hypernetworks に途中のptが出力されます。(出力している場合
 コピーして別のSDへもっていけば途中でもいろいろ確認することが出来ます。

5.途中からトレーニングを再開する。

空のptを作成するstepを飛ばし、前回学習に用いたptファイルを「Hypernetwork」で指定するだけです。
途中から再開する場合には「Learning rate」を落とした方が良い結果が出るかも?といわれていました。わかりません。
10000まで回したけど、2000のptから再開したいなんて言う場合は
textual_inversion⇒20XX-MM-DD⇒名前⇒hypernetworks フォルダ内に出力された途中のptも「stable-diffusion-web-ui」⇒「models」⇒「hypernetworks」へいれればその指定したstepから再開できる。

6.困ったときは

実際に使うとまったく変化しない

学習用画像ベンチマークテストを試し、改善を試みてください。
問題がなければ設定を見直し、回し続けてください。

完成したが画質が低い

自動保存された、前のstepsを試してみてください。
それでも低いか変化が乏しくなった場合は、学習の事前準備を見直す必要があります。

望まない変化をした

自動保存された、前のstepsを試してみてください。
その中から望んだ変化に近いものを完成とするか、Hypernetwork Learning rateを変更して回してください。
それでも難しければ、学習の事前準備を見直す必要があります。

一部タグで変化が乏しい・汎用性がない

1girl+NPのpromptのみで変化量・再現率が十分高い場合、他タグとの相性の問題でおそらく正常です。
(「None」状態が万能でないのと同じで、一部タグは諦める必要があります)

1girl+NPのみで変化量・再現率が低い場合、画像の種類数を増やしてください。
また設定を見直したり、学習用画像ベンチマークテストも試してみましょう。

Dream Boothで解決できるかもしれません

Dream Booth on AUTOMATIC1111
(目指す方向性にもよります)

memo

=TI,HN,DBはまだ全然データがないので、Learning rateや使った画像の雰囲気や枚数キャプションのつけ方を共有すると研究が進むかも?=


おそらくですが、データセットは同じような構図?のほうがいいと思います。
腰アップ複数+キャラ全体色々でHNした結果腰アップがあるせいでfullbodyなどいれても腰をたまに出力する
基本的にはTIと同じ。ただ、ファイルサイズがクソほど違うので頻繁に出力するのは注意だよ


エロゲの立ち絵を学習
danbooruでcaption作る
standing,full bodyを削除
学習
割と成功気味な感じになったかもしれません。データなどはTLabへ


作成されたHNを検証する。
ハイパーネットワークのフォルダに突っ込んで
Scriptで「X/Y plot」を選びます。
「X type」は「Hypernetwork」。「Y type」は「Seed」を選びます。
「X values」へは「,ahiru-1000,ahiru-2000,ahiru-3000」の様に書きます。 ← なにも無し、ahiru-1000.pt、ahiru-2000.pt、ahiru-3000.ptでやってねという意味です。
「Y values」へは「-1」でランダムシード、気に入っているシードがあるならそれ入れてもいいです。「-1,-1,-1」とかもOK
Draw legendはON。Keep -1 for seedsはOFF
ptの名前見せたくない人はDraw legendを切るといいかも
でとりあえず見れると思います。
詳しい人は自分でいろいろ書き換えてね


HNトレーニングの謎のModulesの数字に関して

768 is a module that processes inputs,
320 640 1280 are modules that process intermediate results, the larger than number the closer to the center of the network those modules are placed (as far as I know).
numerical value is the third dimension of input for cross attention layer
hypernet is injected into the cross attention layer, and when the context input for the cross attention layer has matching shape (your prompt, has a shape of [x,x,768], while three other sizes are related to self-attention of convolutional layers (i hope i'm not messing the terminology up)).

うんわからん


HNトレーニングの謎のModulesの数字に関して
うんわからん

まず、DLのモデルに関する最低限の基礎知識ないとな
簡単に言えば、Hypernetworkのサイズを設定してる
NAIのが全部の設定サイズをオンにしてる
でも1111版は全部オンじゃなくても動くように変更してる
当然サイズが小さい奴は影響力も学習可能な情報量も減る
これくらいの認識でいいと思うよ

匿名としあきによるかにテンプ
1girl solo nude detailed_face standing chibi (anime_style:1.2) spoken_heart_mark puffy_nipples heart_pasties full_body large_areolae little child 10yo curvy cowboy_shot huge_breasts simple_background flom_below loli huge_nipples strong_highlight surprised deformation Temptation smile
negative
lowres, bad anatomy, bad hands, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, artist name, monochrome from_behind penis dildo multipul_girls 2girls 3girls 4girls 4boy steam particle glasses muscle fat_legs fat huge_ass


https://www.xnview.com/en/xnconvert/
学習用の画像加工はXnConvertが便利
ダウンロードの所に金額とか出てるけど個人利用は無料
日本語化もされてるんでわかりやすい

←こんな感じでアクションを追加していくと画像の長辺に合わせて正方形にしてから512x512にリサイズのアクションができるしフォルダ指定して一括適用もできる
つくったアクションはプリセットに保存もできて便利


HN学習回してるけどどうも学習画像数が多いと重みが発散してしまう確率が高い気がする
とりあえず30枚につき0.000005くらいで画像数増加とともに反比例的に調整してるんだけどバリエーション豊かな画像を学習させるより同じ画像学習させる方が学習勾配が安定してて学習も安定するとかあるのかな

ある程度学習進めたらlrはもっと下げていい、さらに2、3桁低くてもいいくらい
うちでやった実験でみるかぎり、発散だけじゃなくて過学習に陥るような学習でもこれで結構結果でてる
たぶん、HNが繊細すぎて、本当に小さな重み変更で適切な位置を簡単に通り過ぎるんだと思う
つまり一回過学習まで回して
そのあと良い感じに出来たやつでlr下げてやればいいんだな

lrを下げた後は学習率が小さすぎて500stepずつでサンプルみても学習できてるか不安になるくらい差がでなくはなるけど、突然急激によくなるポイントを見つけてきたりする
20Kstepから27Kstepまでほぼ変化なしだったのが、28Kとかで突然変わったりするから、本当に繊細なモデルなんだと思うHN

あーなるほど
物理的な言い方になるけどある程度良い感じの結果が出るようになったらそこがポテンシャルある程度低いってことがわかってるので変にエネルギー障壁ぶっ飛ばして明後日の方向行かないようにlr下げて慎重にモデルの重みを多次元空間上でうろうろさせる感じなのかな


一応見つけたHypernetworkの条件設定のメモ
ただ、あまり改善している気はしないんでここに書いとく

https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670

  • 画像
    量より質で20枚位。サイズは512x512
    DeepDanbooruでタグ付けした場合はタグの検証を行う。
  • Learning Rate
    5e-5:100, 5e-6:1500, 5e-7:10000, 5e-8:20000
    100ステップまで5e-5、…
    段々学習率を下げていく。
  • Prompt Template
    [filewords]のみのテキストファイルを作成し、それを利用する
    hypernetwork.txtは写真↔絵画の区別をなくすために利用している
  • Steps
    上限20000
    5000-10000で大枠ができて、10000-20000はディティールの部分になる。
  • 学習
    LRが0.3を超えたらやり直し

HNで追加されてた機能チェックしてみた
ReLUでレイヤー数を変えた場合の学習結果の変化を確認したんだけど
レイヤー数3とレイヤー数4は結果的にあんまり変わらない結果
レイヤー数5はレイヤー数3と4の時とは違う変化したよ
データセットは87枚の物で試した


今日初めてHNしたけどHNで過学習が良くないってことだけ頭に入っててlayer normalizationnチェックして
reluにしてLrを5e-5:100,5e-6:1500, 5e-7:10000, 5e-8:20000にして~ってやっても
全然学習進まなくてとしwiki読み直したら画風再現なら過学習気味にさせるくらいがいいとあって
Lrを5e-4から雑に回してノイズが出たら1000stepくらい前のよさそうな奴選んで一桁落とす


Hypernetworkをreluとレイヤー数2が相性いいってここで見たから試した
normalizationとdropoutなしでやったけどこれは素晴らしいわ
レイヤー数が3とか4より遙かにいい結果になるしすぐ学習成果出る
あとファイルサイズが線型モデルで85MBあったのがレイヤー数2にすると21MBまで減らせるのも便利!

学習用の素材って全身図と顔のアップどっちがいいんだろ?

両方…?
枚数は一桁でもいいから細部までちゃんと書かれてるの選んだ方がいいってのが大前提として
両方あって問題ないはず

学習成果すげー速さで出るからいま頭ひねりながらLR調整してるわ…

5e-5だと高すぎる…こともある

今までのカタツムリスピードと比べると嘘みたいだ

rateはいくつでやってる?
5.0e-5で3000stepまでに高確率で発散するからそこまでまず回す
大丈夫そうなところに戻して5.0e-6でstepまで回してみておかしくなるなら崩れる前に戻して
続きから5.0e-7で最後まで回してる
成功率はかなり高いよ


前にHNで線型モデルを全く同じデータセットで作ってたから比較画像を用意した
拾ってきた3枚の画像でHNを作ったんだけど過学習気味にするなら好都なって思ってやった
線形モデルだと目の形とかは似たけど非線形の2レイヤーだと塗りまで似る
持ってる武器もほとんど同じの出るくらいには似る


簡易掲示板できました

Hypernetwork学習結果用簡易掲示板

コメント・指摘・助言

  • 母乳みたいな通常のモデルでなかなか再現しないようなのをHNで学習するときにReLUが入ってると軒並みそこの特徴だけそぎ落とされて学習されてしまった -- 2022-10-22 (土) 03:48:50
  • 今までHNやってもなんの成果も得られなかったのに1,1の二層reluでLR5e-5にしたらみるみるうちにサンプルが動いていく…/Hypernetworkをreluとレイヤー数2が相性いいってここで見たから試したnormalizationとdropoutなしでやったけどこれは素晴らしいわレイヤー数が3とか4より遙かにいい結果になるしすぐ学習成果出るあとファイルサイズが線型モデルで85MBあったのがレイヤー数2にすると21MBまで減らせるのも便利!//>学習成果すげー速さで出るからいま頭ひねりながらLR調整してるわ…>5e-5だと高すぎる…こともある>今までのカタツムリスピードと比べると嘘みたいだ>rateはいくつでやってる?5.0e-5で3000stepまでに高確率で発散するからそこまでまず回す大丈夫そうなところに戻して5.0e-6でstepまで回してみておかしくなるなら崩れる前に戻して続きから5.0e-7で最後まで回してる成功率はかなり高いよ///スレで見たものをメモ代わりに あってるか確認はしてないです -- 2022-10-23 (日) 16:27:55
  • 2層にするっていう発想はなかったから気になるけど、さすがに上記の画像は食わせる画像が少なすぎなのかそもそもの特徴学習できていないように見える。正しく学習させようとしたときにどうなるのかは要検証っぽい -- 2022-10-23 (日) 22:25:21
  • こういうLearning Rateでやってる人もいるみたいです。自分もやってみて崩れなかった(ここの下の方に書かれてるhttps://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670 ) 5e-5:100, 5e-6:1500, 5e-7:2000, 5e-5:2100, 5e-7:3000, 5e-5:3100, 5e-7:4000, 5e-5:4100, 5e-7:5000, 5e-5:5100, 5e-7:6000, 5e-5:6100, 5e-7:7000, 5e-5:7100, 5e-7:8000, 5e-5:8100, 5e-7:9000, 5e-5:9100, 5e-7:10000, 5e-6:10100, 5e-8:11000, 5e-6:11100, 5e-8:12000, 5e-6:12100, 5e-8:13000, 5e-6:13100, 5e-8:14000, 5e-6:14100, 5e-8:15000, 5e-6:15100, 5e-8:16000, 5e-6:16100, 5e-8:17000, 5e-6:17100, 5e-8:18000, 5e-6:18100, 5e-8:19000, 5e-6:19100, 5e-8:20000 -- 2022-10-27 (木) 19:44:56
  • Preprocess imagesを実行する時にCreate flipped copiesをオンにしたとき、左右反転させた画像と元の画像でキャプションが微妙に違う。これを揃えるか揃えないかでも結果良くなったり悪くなったりするのかな?一応揃えてから学習させてみたけど。 -- 2022-10-27 (木) 20:27:48
  • VRAMが足りないからcolabでやれないかなあ -- 2022-10-28 (金) 23:55:32
  • このページによると、人・物・動物を学ばせたいなら1,3,1で、スタイル・コンセプトを学ばせたいなら1,1.5,1.5,1が良いらしいです。https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/2670?sort=new#discussioncomment-4010316 -- 2022-10-31 (月) 11:38:33
  • このページみたいに「顔の画像」と「顔より下の画像」で分けてやってみてるんだけど、今までとは段違いに上手く行きそうな気配がする。https://arca.live/b/hypernetworks/61723474?category=%EA%B3%B5%EC%9C%A0&p=1 -- 2022-11-01 (火) 00:57:50
  • 上に貼ったページ内に「deepbooru : 0.7하고 따로 태그 수정 안 함」って書かれてて「Interrogate: deepbooru score threshold」のことだと思うんだけど、これを0.7みたいに上げる設定は、ズームインした画像で学習するときにめちゃくちゃちょうどいい気がする。ちょうどいいってか楽ってか。 -- 2022-11-01 (火) 01:04:11
  • タグ付けについて。https://i.imgur.com/BFqWyH4.png -- 2022-11-07 (月) 12:58:42
  • 4chanの人たちが使ってる画像枚数についてhttps://i.imgur.com/ufMm0pA.png -- 2022-11-07 (月) 13:14:51