よくある質問

Last-modified: 2023-03-31 (金) 08:56:13

質問をする前に

  • まずは出てきた言葉で調べてみましょう。
  • 今見てるページ(よくある質問)内で検索しましょう。
  • としあき達はエスパーではないので、曖昧・あやふや・雑な質問には回答しませんできません。
  • ツール名を書きましょう。Dezgo/URL/NovelAI/ローカル1111/NMKD/Colab1111…等
  • あと再起動をするとなんか解決することもあるよ。

画像に関する質問

  • 自作のAI画像を添付しましょう。AI絵は基本的に生成時の呪文やパラメータが画像内に埋め込まれる仕組みだからです。より良い回答やアドバイスを得やすくなります。
    ただし画像編集ソフト等でモザイク修正をかけると、多くの場合、埋め込み情報が失われてしまう点に注意してください。質問内容によりますが、性器描写を避けた健全絵を添付して質問するのも一つの手です。
  • 実際の画像とメタデータなしに「ぼやける・崩れる・画質がどうこう」と質問するのは、「エスパーしてくれ」というお願いと同義なので、やめましょう。

エラーに関する質問

  • まずは表示されたエラーメッセージを日本語翻訳にかけてよく読んでみましょう。
  • 元の英文のエラーメッセージでGoogle検索しましょう。
  •  誘導→エラー解決メモ
  • エラーに関して質問する場合は、必ずエラー画面のスクリーンショットを貼ってね。
    としあきが「ここがエラー文だ」と思っている箇所の前後にも、重要な情報が表示されている場合が多いからです。
    Windows+Shift+Sで範囲選択してスクショを撮れるよ。
    スクショも貼らずにエラー質問する者は黙delでいいです

PCスペックに関する質問

  • デスクトップPCかノートPCか、また、グラボとVRAM容量を書きましょう(例: デスクトップPC、3060(12GB))
  • 「RTX○○(GPU名)でいける?」→既に持ってるのか購入/買い替え検討なのか明記する方がいいぞ
  •  誘導→よくある質問#グラボは何を買えばいい?

金言
1677146007249.jpg

とてもよくある質問

しばらくスレを覗いてなかったけど何か新しい動きあった?

誘導→最近の主な出来事

久しぶりに1111を更新しようとしたらエラーが出る

何週間ぶりか知らないけど
詰まって困るくらいなら大人しく新しいフォルダにgit cloneする方がいい
自分で解決する知識と気力があるなら話は別

僕もお絵描きAIを使えば貼られてるようなエッチな画像を作れますか?

同じモデル・同じ呪文・同じ学習データを用意すれば作れます。
自分の性癖にマッチしたものを作るには個人で学習をする必要があるので大変です。
以前は学習大変でしたが最近ではゲーミングパソコン程のPCと環境構築するための多少の根気があれば
個人で学習モデルを製作可能なレベルになりました。(2023年1月後半頃より)
詳しくはこちら→LoRA

低スペPCでもできる、またはPCが無くてもできるのはどれ?

  • まずは体験版リンクをどうぞ。無料、インスコ不要。中にはスマホに対応してるものもあります。
    ブラウザから操作できます。またクラウドで動作する仕組みなので、PCの性能に自信がない方にもおすすめです。
    短所は時間帯によっては順番待ちが長くなることと、デモ版ゆえに画像サイズやモデル選択等の機能が制限されていることです。
  • NovelAIは海外の月額制有料サービスですが、導入が比較的簡単。スマホ可、インスコ不要。
    ブラウザから利用でき、クラウドサービスなのでPC性能を問いません。
    ただし使ってるモデルがcamenduru/webuiとは異なるため、絵柄やキャラの得意・不得意等にも違いが出ます。
  • 若干の努力を必要としますが、Colabで1111を動かすこともできます。GoogleのPCを借りて遠隔操作する形になります。
    無料ですが、一日当たり使える時間が限られます。

エロ絵が出にくい…

プロンプト(呪文)だけでなくモデルによる影響も大きい。学習してある単語や画風が、モデル毎に大きく異なるのだ。
モデルによってはクオリティ重視でほとんどエロが出せないモデルもあるので入手先で確認すること。

  • 特にAnything系列のモデルは、竿役や男性器などを指示してもほとんど描いてくれない。
    その代わり、品質や画風などについて長々と指示しなくとも、二次元美少女をお手軽に出力できる…という長所を備えている。
  • NovelAIでは、デフォルトでNAI Diffusion Anime(Curated)という健全絵向けのモデルが選択されている。
    まずはこれを(Full)に切り替えること。そしてもう1点、プロンプトの中に「nsfw,」を書き足すとなお良い。
  • 1111やNMKDを使用している場合は、エロに強いモデルを探して導入しよう。
     誘導→モデルについて#モデルの紹介やリンク

始めたばかりの人向け

画像が作れない

まずは「何の画像も出てこない」「真っ黒やぐちゃぐちゃだったりして生成できてるとは思えない」など、どういう状況なのかを区別しよう

何の画像も出ない

エラーが起きている可能性が高い。使っているツールとエラーメッセージをチェックして調べよう。
頻出エラーならwikiにも対策が掲載されている場合もあるし、エラーメッセージでそのままグーグル検索したり、あるいはChatGPTなどのAIに質問しても答えが見つかることがある。
それでもわからなかったら、ツールとエラーメッセージを添えて質問してみよう。

真っ黒な画像が出た

AUTOMATIC1111で報告されているエラーの一つ。起動バッチ「webui-user.bat」をメモ帳か何かで開き、「set COMMANDLINE_ARGS=」の後ろに「--no-half-vae」を付け足してみよう。

まともな画像が出ない

ケースバイケースだが、まずはこのページを一通りチェックしてみよう。
プロンプトやパラメータ、サンプラーやステップ数を調整することで解決するかもしれないので試してみよう。
また、学習ファイルを使う場合、学習ファイルの適用方法が間違っていたり、あるいは学習ファイル同士が干渉してたり、そもそもきれいに学習できていない失敗作の学習ファイルを使っているのかもしれない。
学習ファイルを外してどのように画像が生成されるかも確認しよう。

大きなサイズの画像を出したい

  • NovelAIは、$25プランなら512x768以下が出し放題。
    Anlas(=通貨)を消費していいなら最大1024x1024まで。
    ただしサイズを大きくするほど消費Anlasも増えることに注意
  • 1111やNMKDで出せるサイズは、グラボのVRAM次第。
    また、大きなサイズを出そうとすると生成時間も劇的に長くなる。
    人体の崩れ、頼んでないのに2人以上になる、等の問題も増加する。
    こちらも参照→よくある質問#大きな画像生成についてもっと教えて?

版権キャラを出すにはどれがオススメ?

メジャーなキャラ、かつ、ひと昔前の流行りなら、体験版リンクやNovelAIでも出せるかもしれません。
マイナーキャラや最新すぎるキャラの場合には、自分で学習させる必要があります。もしくは有志が学習データを作成し配布している可能性もあります。
ただし自分で学習させるにせよ、有志の学習データを利用するにせよ、1111もしくはNMKDが必要になりますので、ローカルorレンタルGPUを検討してください。

出しやすい・再現しやすい版権キャラっている?

例を一部挙げるとミクさん・チノちゃん・アスカ・めぐみんとか。他にもいっぱいいる。
ひどく大雑把に言うと、人気の高さやファンアートの数。より正確に言うならモデルがそのキャラをどれだけ学習してるか、の影響が大きい。
Danbooruのキャラ名タグの数もある程度は参考になる。
しかしDanbooruから学習したモデルとは限らないし、実際に例外が多数確認されている。

もっと詳しく

簡単に出ないなら、まずは髪型・髪色・衣装・アクセなどの指定を組み合わせて可能な限り寄せてみよう。
キャラ名だけで簡単に出るとしても、指定を増やすことで打率がさらに高くなる。ただし限界はある。またプロンプトをあまり長くしすぎると今度は弊害の方が大きくなる。
身も蓋もないことを言えば、「再現できなければ自分で学習させて個人で楽しむ」、それが可憐な乙女のポリシー。

こんな方法もあります:

  • Danbooruでそのキャラによく使われているタグを調べ、それをプロンプトに利用する
  • DeepDanbooruに画像を読み込ませることで、画像の内容からタグを提案させる

先週よりいい画像ばかりだから勝手に学習したんだね

NO。現在の画像生成AIには、自動的に学習する機能はありません。
また、ユーザーが入力した呪文や生成結果の画像によって自動的に学習していくということもありません。
恐らくはユーザー自身がAI絵の知識とコツを蓄積したり、目的に合った呪文を見つけたことによって良い画像になっただけでしょう。
1111やNMKDには学習機能も用意されていますが、ユーザーがそれを意図的に利用しない限り、勝手に学習を開始してくれることはありません。

スレに学習の話題多くね? 話のレベルが高くて全然わからん…

お前も(・・・)そう思うか オレも(・・・)なんだよ(画像省略)

適当に貼って適当に雑談スレだから全然大丈夫だよ

やっぱり技術的なところ皆手探りだから話題に出やすくはあるけど

全然気にしなくていいと思う

学習なしでスレ文ので出してる人とかnovelAIのwebだけの人も結構いるから好きなように貼ればいいと思うよ

学習関連の質問や回答が多い理由

学習関連の質問や回答が多いのは、

  • 次第に簡便化されつつあるものの、学習環境を整える際のトラブルシューティングが絶えない。
  • 導入に成功しても素材の準備や多数のパラメータがあり、より良いコツを求めて手探りする印象が強い。

などの事情があるから。それを補うべく、日々随所で情報交換・ノウハウの共有が図られている。
でもべつに学習スレってわけでは全くないし、学習やってない人も多いよ。だから自分が手を出してない内は特に気にしなくていい。
あと「百聞は一見に如かず」みたいなもので、一度実際にやってみると理解が一気に進む…という面もある。

グラボは何を買えばいい?

Nvidiaのグラボがオススメです。
Radeonのグラボの場合には導入やその先で苦労する場合があります。 (参考: Nvidia以外のグラボに関して)
今から購入するならRTX 3060(12GB)が一番のおすすめ。生成速度・VRAM容量・コスパのバランスが良い。
ただ世の中の3060にはVRAM 8GBの製品も混じっているので、VRAM容量は必ず確認してほしい。わずか数千円の違いで12GB版を購入できる。
それとノートPCの3060はVRAM 6GBなので注意が必要。

基本的にVRAMが大きいほうが、やれることが増えます。より大きなサイズの画像を生成できる、複数のLoRA(学習データ)を併用できる、ControlNet拡張機能(強力なポージング機能)を利用できるなど。
学習においては、より大きな画像サイズで学習できるため、細かな部分の再現力が高まります。また複数枚を同時に学習できるため学習時間の短縮に繋がります。
設定を下げてVRAM 6GBで学習してるとしあきもいますが、学習の目安としては8GB、できれば12GBほしいところ。
最悪グラボの性能が低くてもColabなどでGPUを借りて学習させることも可能です。その場合は規約上エロなどがOKかどうかにも注意しましょう。

比較画像(左が新しめ、右は古めのグラボ)
新しめ、RTX 30xx~40xx 古め、GTX 9xx~30xxくらいまで
出典: Stable Diffusion Benchmarked: Which GPU Runs AI Fastest (Updated)
参考: 画像生成AI「Stable Diffusion」を最速で実行できるGPUはどれなのか?

スレのテンプレから引用
VRAM対応表

前述の通り、最も重要なのは価格・生成速度・VRAM容量ですが、他にも幾つか注意点があります。

  • グラボの全長
  • PCケースが全長何mmのグラボまで対応しているか
     この確認を怠ると、物理的に干渉して装着できなくなり、PCケース買い替えになる
  • 手持ちの電源の容量
     電源の容量不足に陥るとPCが勝手に落ちたり再起動するので、電源買い替えになる
     そして今度はPCケースが寸法何mmの電源まで装着できるかの確認が必要になる
  • グラボの補助電源ピン

もっと詳しく

としあきTIPS

グラボは一番安く済ませたいならRTX3050(8GB)

基本的には安くてメモリの多いRTX3060(12GB)がおすすめ

お金が出せるならRTX3090(24GB)が意外とコスパもいい

RTX3070~RTX3080はメモリがRTX3060同等かそれ以下なので非推奨

 

『VRAMも大切ですけど、性能高いと排熱も上がるのでエアフローやファン、室内気温にご注意を』

なお、基本的に画像生成で精度が高いのは512*512pxに近いサイズで出力した場合です。
大きいサイズにする場合にはその後アップスケールなどをします。

(備考)VRAM 2GBあきによるローカル画像生成環境の例
えっVRAM 2GBで画像生成できるの!?
遅いけど一応できるよしてるよーと としあき達の度肝を抜いた例。
2014年製のQuadro K2000(2GB)なので、ゲーム用のGeForceとは同列に語れないが。

詳細

低スペグラボあきなんですが本当に限界感じてVRAM8Gのボード注文しちゃった…VRAM2Gではこのへんが限界です

(俺メインPC参考)

XeonCPU E5-1620 3.60GHz / メインメモリ 20.0GB

NVIDIA Quadro K2000(VRAM:2GB GDDR5、CUDAコア数384基のOpenGLに最適化されたCAD向けのボードです)

※参考までに、RTX3090TiはVRAM:24GB GDDR6X、CUDAコア数10752基

 

起動可能なSD(色々試してみたがこの2つ以外はインストールすら不可能)

・Stable Diffusion UI v2.4.24

・NMKD Stable Diffusion

 

・768×512の画像生成(1枚)に約20分、1024×512に約30分、1024×768に約60分を要する(アップスケーラー等は使用可能)

・学習は現状100%不可能(完全門前払い)

 

結論:時間かければそこそこの画像は出力できるけど((学習出来ない))し、{{{何より遅い}}}ので、CADやるならともかくAIやるなら良いグラボ買おう、いや買ったよ

Pythonのバージョンは何が良い?○○だと駄目なの?

Python3.8未満および3.11以上のバージョンは使用しないでください。Stable Diffusion WebUIが対応していないバージョンです。

推奨バージョンはPython 3.10.6です。開発者もそのバージョンで動作確認を行っているはずなので、ローカルに環境を作る場合はバージョンを合わせておいた方が無難です。

なお、ColabPaperspaceのようなオンラインサービスの環境では3.9がインストールされているのをそのまま使う場合がありますが、別にバージョンをぴったり合わせなくても動くのでそれほど心配する必要はありません。3.8~3.10を使っている限り、エラーが起きてもPythonのバージョンが原因である可能性は低いです。

AI以外で既にPython3.11を使ってるんだけど

3.11はそのまま3.10を追加でインストールして、venv(Pythonによる仮想環境)を使用することで特定のフォルダ内でのみ3.10を使用することができます。
3.10の追加インストール後、コマンドプロンプトでSDやLoRAを配置したフォルダへ移動し

py -3.10 -m venv .venv

と入力することで仮想環境が作成されます。
作成した仮想環境に入るためには同じフォルダで次のように入力します。

.venv/Scripts/activate

仮想環境に入ることができれば、コマンドプロンプト左側に(.venv)と表示されます。また、Python -Vで3.10が動いていることを確認できます。
この状態でSDやLoRAのインストール・実行を行いましょう。
また、次のコマンドによって仮想環境から出ることができます。

deactivate

一度終了後再びSD等を実行したい場合は再度.venv/Scripts/activateで仮想環境に入りなおす必要があります。
venv環境の作成、バージョンの確認

呪文関連

その画像の呪文教えて

呪文が出ない場合、モザイク処理などの都合で消えていることあります。
いい呪文を唱えた人に敬意を持ち、直接聞いてみましょう。

他にも、後述する拡張機能のImage Browserは自分が生成した画像を一覧表示して、それぞれの画像をクリックすると生成時の情報を表示してくれます。
削除を押さないように注意。

埋め込み情報を残したままモザイク修正かける方法ないかな?

としあき製のモザイクツール(2023/01/31版)を使うと、メタデータを保持したままモザイク処理を適用できるよ。
マウスを右クリックする度にモード変更(モザイク大/モザイク小/ぼかし/黒塗り)

(2023/01/31)

元の作者とは別のとしあきなんだけど

モザイクの範囲指定にグリッド吸着を入れたかったので改造してみました

(2023/01/24)

mosaic.txtをmosaic.batにしてダブルクリックで起動するだけよ

もし一瞬で閉じて起動しなかった場合はPILっていうPythonの追加モジュールがはいってないとおもうからコマンドプロンプトから

pip install pillow

ってやってモジュールいれるだけ怖くないよ

なお、一般的なローカル1111民の環境を想定に用意されたものなので、
1111をワンタッチ導入した人や、NMKD民、NovelAI民などの人には、Python 3.10のインストールも必要になるようだ。
その方法については、ローカル版導入のページにある「2. Python 3.10をインストールする」の部分を参考にしてほしい。

○○ってモザイク修正要る? ××は? △△は?

ちょっとでも迷ったら全部修正するに限るよ

としあき…としあきや…

迷うくらいならモザイク修正かけておしまい…

ぶっちゃけモザイクって具体的なガイドラインとかなくて全部警察の裁量次第だからなマジで

ヤバそうと思ったら全部修正しとくのが無難

同じ呪文を唱えてもみんなと違う画像が出るのはなぜ?

モデルや学習データやその他細かい設定の適用などで違う可能性があります。
全然違う画像が出ている場合はモデルが違う場合がほとんどだと思いますので、貼られている画像のModel hash:の部分を確認しましょう。
モデルマージという機能(調合のようなもの)でマージモデルを自作している人もいます。
もしくは、文章から画像の生成ではなく、画像から画像の生成(img2img)をしている場合があります。

どんな呪文を唱えたらいいの?

https://magic-generator.herokuapp.com/ などを使用するか、人の呪文を参考にしましょう。
もしくは「〇〇 danbooru」などで検索してもいいかもしれません。  例)「口内射精 danbooru」
ここの呪文コーナーのリンクを確認してもいいかもしれません。

表情とかどう指定すればいいの?

https://rentry.org/faces-faces-faces を参照
ここの呪文コーナーのリンクを確認してもいいかもしれません。

呪文の () と {} って何が違うのさ?

としあきがAI絵の生成に使ってるツールも色々ある。そしてツールによって強弱の構文が異なるのだ。
例えば1111では () が強調1.1倍。
NovelAIでは {} が強調1.05倍。
1111やNovelAIでは重ねて使うと乗算になる。例えば (()) は1.21倍。

もっと見る

呪文の中に \(hogehoge\) とか ¥(hogehoge¥) とかあるのって何?

その \ とか ¥ はエスケープ処理ってやつだ。
例えば1111で toshiaki (futaba), って入力したいとする。
するとfutabaの前後にカッコがあるから、futabaが1.1倍に強調されちゃうよね。
そこで toshiaki \(futaba\), という入力にすることで強調効果を回避できる仕組みが、1111には用意されてる。
このように「特別な意味がある文字や記号を別の文字に置き換えること」をプログラミング界隈ではエスケープ処理と呼ぶ…って庭に来たジュウシマツがゆってた。

呪文の順序って意味ある?

ある。先頭に近いほど効きやすいとか、距離が互いに近い単語同士は影響を受けやすい(色移りもしやすい)、とか。
(参考) PART3 -プロンプトの工夫で指定色が混ざるのを防ぐ方法- - Defblog(デフブログ)
もっとも、後ろの方でも十分効きやすい単語もあるし、強調構文(下記参照)で調整する方法もある。
 誘導→呪文の () と {} って何が違うのさ?

呪文に使う半角スペースとアンダーバーってどっちがいい?

基本的に半角スペース。例: upper body, hair ribbon,
なぜなら現在のモデルの大半が半角スペースを使った単語で学習しているから
(逆に言うと、初期にはアンダーバーを用いた素のdanbooru語で学習していたモデルもあった)。
また現在でも半角スペースではなくハイフンで繋ぐ形の単語が一部に存在する。例: see-through, one-piece swimsuit,
ともあれ、1111を利用している場合は拡張機能Booru tag autocompletionを導入してオートコンプリート機能を利用するのが手っ取り早い。

他の人のネガティブにEasyNegative, って入ってるけどこれ何?

その単語は通常のネガティブではない。有名なネガティブTIの名称だね。該当するファイル名のTIの効果を得るために書いてあるんだ。
DezgoやNovelAIでは、それを真似てEasyNegative, とか入力しても同じ効果は得られない。
配布元から対象のファイルをDLして、1111とかで指定の場所に導入。
その上でプロンプトやネガティブにファイル名を書く(🎴から選んでも良い)。
この手順を踏むことで初めて効果を発揮する。

主なネガティブTI

主なネガティブTI

TIなので stable-diffusion-webui\embeddings に突っ込んで🎴から利用する。
ただしネガティブTIだから、プロンプト欄ではなくネガティブ欄に挿入しよう。
画風への影響も強いので強弱を調整して使うことも検討してほしい。
どんどん併用すればするほどいい…ってものでもない。
例えばInpaintで手指ガチャする時だけbad_promptを利用する人もいる。

特定の行為をするように呪文を入れてもなかなかしてくれません…

モデルによって表現に得意不得意があります。
Civitai等に特定の行為に特化したモデルがあるので、普段使っているモデルとマージして新しいモデルを作るのもいいかもしれません。
 誘導→Checkpoint Merger
 誘導→モデルについて#f2ec2f11

色移りして困っちゃう/他の人の呪文にあるBREAKって何?

BREAKの使用例

BREAKは1111で利用できる特殊なキーワード。公式wikiにごく短い説明がある。
公式の説明にある通りで、大文字で入力しないと効果を発揮しない。
また2023/1/16の1111アプデで実装された機能なので、あんまり更新してないとやっぱり効果を発揮しない。

BREAKを入力すると75トークンまで空のトークンまで自動的に埋めて、次の区切りに移行する。
例えば色移りの防止などに利用できる。

240 無念 Name としあき 23/02/19(日)16:24:46 ID:qLW8bEds No.1068513211 del そうだねx6

>AND構文とBREAK構文の違いがわからない

白い猫BREAK黒い犬

 →白い猫と黒い犬が描かれる

白い猫ANDK黒い犬

 →白い猫と黒い犬が融合した動物が描かれる

(参考) AND構文の公式解説

基本的なパラメータ

Seedって何?

画像生成の計算に用いる乱数みたいなもの。

(参考) シード値とは? - R study

ランダムに画像生成する「-1」がデフォルトで、サイコロ🎲ボタンを押すとこの状態に戻ります。
サイコロを振り続けるイメージで生成を繰り返しましょう。

隣のリサイクル♻ボタンを押すと、直前の生成結果の数値を見ることができます。
呪文やサイズなどを調整したい時は数値をリサイクルしましょう。

また、生成された画像の情報にはSeed値も含まれています。
使いたい時はその数値を入力しましょう。

他にも、数値を固定した状態で使用モデルを変更することで各モデルの生成結果を比較する、という使い方もあります。

step数はどれくらいがいい?

モデルとサンプラーにもよるけど、基本的にはあんま増やしても頭打ち感が強くなる。
ステップ数のグラフ
スレでよく利用されているのは15~50、その中でも20の人が多い。1111のデフォルト値でもあるしね。
画像サイズもそうだけど、step数も生成の所要時間に大きく影響する。

txt2img/img2imgのサンプラーはどれがいいの?

🐍(訳: わからん…それは人それぞれ違うからだ。)
優劣をつけるのは難しいが、特徴はあるので、好みで選ぼう。
こちらのブログの記事も参考にしてほしい。
サンプラーの違い・全サンプラーの比較【Stable Diffusion web UI(AUTOMATIC1111版) / Sampler】 – 忘却まとめ

(1111)Clip skipの値はいくつがオススメ?

NovelAIでも使用されている2の利用者が多い。二次元美少女と相性いいんじゃね?とも言われている。
一方で、1の手指が比較的良いのではないか…等の理由から1派も少なくない。

モデル・VAE

  • モデルってなんですか?
  • モデルのsafetensorsとckptって何が違うの?

 誘導→モデルについて#o3b0a591

  • おすすめのモデルはどれ?

 誘導→モデルについて#models

  • 同じモデルでも複数(fp16,fp32,pruned)あるけどどれがいいの?
  • モデルデータをDLしたんだけど、どこに置けばいいの?
  • (1111)モデルデータを指定の場所に入れたのにcheckpointリストに表示されない!
  • (NMKD)モデルリストに.safetensors形式のモデルが表示されないんだけど?
  • モデルデータを軽量化する方法
  • 追加のモデルフォルダを指定する/モデルフォルダだけSSDに置く/シンボリックリンクの作成方法
  • モデルファイルのトークン破損チェックと修正方法

 誘導→モデルについて#faq

  • 生成した画像の色が薄いんだけど…
  • VAEの設定方法がわかんない

 誘導→モデルについて#vae

拡張機能

TaggerでExclude tagsにタグを入力しているのに除外されていない

複数単語で構成されているようなタグは元のアンダーバーも入力する
✕ganyu (genshin impact),
〇ganyu_(genshin_impact),

その他

顔面が崩壊して怖い!どうすればいいですか?

基本的にAI絵はその仕組み上、細かな部分の描写が苦手で崩れがち。小さな手、小さな目、小さな顔など。
対策はいくつかある。

Detection Detailerの使用例
  • upper body, などの単語を使って上半身にズームした構図にする
  • 根本的に画像サイズを大きくする。後述するHires.fixを、数値を調整しながら利用するのがおすすめ
  • 実写系の場合は、Restore faces(顔の修復)をONにするのも良いかも。ただし二次絵には向かない
  • CFGスケールの数値を下げて呪文の影響を弱める。
  • Inpaintで修正する。この時Inpaint area=Only maskedを選択し、pixels=32の値を調整する。数値を上げすぎるとWhole pictureと同じ結果になってしまうので、様子を見ながら上げ下げしてほしい
  • (拡張機能)Detection Detailerを利用する。左の画像参照

画像がぼやけるんだけど誰か理由と解決策わかる?

様々な原因が考えられるから必ず画像を貼れ、メタデータ付きのだぞ
エスパーレスすると

  • プロンプトもしくはネガティブの数が多すぎる、または強調が強すぎる
    断舎離する、強弱を調整する
  • 過学習、あるいはLoRAの適用強度が強すぎる
    <lora:hogehoge:0.5>とかに弱めてみる
  • (Hires.fixまたはimg2imgを使ってる場合)Denoising strengthの値が小さすぎる
    0.55とか0.6とかで試す

何か良い画像ビューワーない?

としあき達のオススメはIrfanView。
https://forest.watch.impress.co.jp/library/software/irfanview/

AI絵を投稿するのにいいサイトある? 渋以外に

ちょいちょい話題に挙がる主なAI絵投稿サイト

手の指が崩れる。どうすればいいですか?

  • ネガティブプロンプトやネガティブTIを試す
  • 手の部分をInpaintして、上手くいくまで何度も試す
  • 小さい部分は潰れがち・崩れがちになるので、Hires.fixやimg2imgで画像サイズを大きくする
  • ControlNetのcannyやscribbleを利用して指の線画をAIに提示する

など

1111特有の話題

PNG InfoからSend toすると、モデルが自動で切り替わって重いっす

Settings → User interface → When reading generation parameters~
にチェックを入れると、Send toしてもモデルが自動切り替えされなくなる。

画像の生成をずっと続けるのってどうやるんだっけ

 Generate ボタンの上で右クリックしてGenerate foreverを選択。
止めたい時は同様に右クリしてCancel generate foreverを選択し、必要ならInterruptボタンを押す。
注意: Generate foreverを始める前に、Seed=-1 になってることを確認しておくんだぞ…
でないと1ループが終わる度に同じSeed値に巻き戻って、同じ画像が量産されてしまうからな…
あと途中でプロンプトや設定に変更を加えた場合は、次のループから反映されるよ。

知らん間にClip skipの値が1になってた

画像の埋め込み情報にClip skipやENSD(Eta noise seed delta)等も含まれてる。
Send toボタンを押すと、その瞬間に1111の設定が書き換わるので注意。
1111の機能改良により、上書きはされなくなった。
代わりにtxt2imgやimg2imgの左下辺りにOverride settingsとして表示され、一時的に適用される。
Quicksettings listに「CLIP_stop_at_last_layers, 」を書き足すと、画面上部に常時表示されるので、確認が楽。

大きな画像生成についてもっと教えて?

大別すると、以下の4つの方法がある

(a)直出し。普通にwidthとheightを大きく指定する(崩れがち)

(a)直出し。普通にwidthとheightを大きく指定する(崩れがち)
単純にVRAMが許す限りの大きなサイズを指定しよう…とはいかない。
Widthを大きくすると複数人が描かれやすくなる。
Heightを大きくすると身体が崩れやすくなる。
これはモデルが学習に使用した画像のサイズによって、モデル毎にサイズの得意・不得意があるからだ。
一般的に768x768くらいまでは破綻が起きにくいが、それよりも大きなサイズを指定すると破綻し易くなる。
破綻を回避しつつ大きなサイズの画像を出力するには、Hires.fix、img2img、Extrasなどの機能を利用すると良い。
とはいえ、打率は低いものの単純な直出しでも上手く生成できることもあり、中にはそれを好む人もいる。

(b)Hires.fixをONにして生成する(精細だけど遅い)

(b)Hires.fixをONにして生成する(精細だけど遅い)
工程を2段階に分けることで構図の破綻を抑えよう…という1111の機能。
まず1段階目は、モデルが得意とするサイズで普通に生成する。
次にその画像に補正をかけつつ拡大する。
さらにその結果を元画像にしてimg2imgを行う。これが2段階目。
描き込みの精細さに人気がある。破綻防止はそこそこ。
Denoising strength(ノイズ除去強度)の値が重要で、小さいほど1段階目に忠実になるが、同時にぼやけがちになる。
値が大きければ精細になるが、元画像からの乖離も大きくなる。
適正値は拡大率や好みによっても変わるが、x1.5~2.0の場合おおよそ0.55~0.6くらいだろうか。

Upscalerは10種類以上あり、どれを選択するかによっても画像の雰囲気が多少変わってくる。
画像の基本的な部分は同じなので、その時の好みに応じて使い分けよう。
参考記事(現在は更に種類が増えている)

(c)元になる画像を、img2imgを使って拡大する(やや遅い)

(c)元になる画像を、img2imgを使って拡大する(やや遅い)
i2i、稀にいもげいもげとも呼ばれる。
元となる画像を指定する点が、txt2imgとの最大の違い。
AIに具体的な参考画像を与えるので、モデルが不得意とするサイズでも構図が破綻しにくい。
1111のデフォルト設定では、step数を指定よりも多少省く挙動になっているので、Hires.fixよりは高速。

もっと詳しく

もっと詳しく:
生成中のコマンドプロンプト画面を見ると分かるのだが、steps20等を指定しても、11とか13とか、指定より少ないstep数で計算する仕組みになっている。
おおよそ step数×Denoising strength くらいの値。
いや物足りねーよ、って人はそれを加味して大きめのstep数を入力してもいいし、指定通りのstep数でi2iさせる設定もSettingsにあります。
Settings → Stable Diffusion → With img2img, do exactly the amount of steps~

(d)元になる画像を、Extrasタブを使って拡大する(忠実かつ高速)

(d)元になる画像を、Extrasタブを使って拡大する(忠実かつ高速)
いわゆるアップスケーラー。元画像に対し、補正をかけつつ拡大する機能。
画像編集ソフトの拡大機能的なやつ。
Upscalerの指定次第で、補正処理の内容や計算時間が変わる。
基本的に(a)(b)(c)より遥かに高速。
描き込みの精細さや、線の太さ等で好みが分かれるところ。

GFPGANとCodeFormerの数値を上げると、美肌アプリのように顔を綺麗に補正してくれる。
やりすぎると別人みたいになるので、少しだけ上げるのが良い感じ。
参考記事

img2imgタブが色々あるんだけど

  • img2img
    元画像を指定して、拡大とか、切り抜き(Crop)とかできる。
    会話画像の文字が変な感じにコラされてる遊びは大体これ製。

    Denoising strength(ノイズ除去強度)について

    Denoising strength(ノイズ除去強度)について:
    重要な設定値。値が小さければ元画像に忠実にだがぼやけがちになり、値が大きければ精細になるが元画像からの乖離も大きくなる。
    1111のデフォルト値は0.75になっているものの、実際の運用における最適な値は、元画像の大きさと、生成後の画像の大きさ、そして好みによるので、ケースバイケース。
    暫定的な値で数枚生成してみて、様子を見ながら調節することになるだろう。

  • Sketch
    img2imgにペンやパレット、スポイトツールを追加したもの。塗った色や形状が反映される。
    4本指の際に1本描き足すのに利用したりする。
    ただし画像全体が再計算されるため、せっかく気に入っていた表情が微妙に変わってしまう…などのリスクが伴う。
    細部を塗るために拡大表示したい時は、Ctrl+マウスホイール操作を使ってください。
  • Inpaint
    塗った部分だけを再計算するツール。または、塗った部分を保持しそれ以外を再計算させることもできる。
    顔とかすげー良いから保持したいんだけど、指だけが惜しいんだよねー…みたいな時に役立つ。
    6本指になった時は、指を1本塗り潰して Masked content=fill で数枚ガチャしてみるのをオススメ。
    シンプルに塗り潰すだけでも良かったり、塗り潰した箇所に合う呪文を入れるとより良かったりもする。
    上半身全体など塗り潰す範囲が大きい場合、実写系はInpainting用モデルを使うとより綺麗に仕上がりやすい傾向(二次絵系は未検証)。
  • Inpaint sketch
    Inpaintにパレットとスポイトを追加したもの。
    塗った色が反映される…が、マスク外が全体的に若干ぼやけてしまう副作用がある(おま環?)。
    一箇所修正してそれをベースに次の箇所…ってやってくとひでぇことになる。
    画像編集ソフトでシャープ化補正をかける、みたいにカウンターを当てて戻すのも一つの手。
  • Inpaint upload
    無印Inpaintは手動で塗り塗りしていたが、こちらは別の画像編集ソフト等で作ったマスクを読み込ませて利用するタイプ。

img2imgについての詳細は、imgtoimgのページも参照。

体や背景が見切れている時はどうするといいですか?

Outpainting mk2を使用することで、画面外のものを新たに生成できます。
img2imgの一番下のスクリプトから選択して、拡大するピクセル数や方向を設定します。
Send to img2img(img2imgに転送)を繰り返したり、必要に応じて呪文を入れたりして拡大させていきましょう。

下半身など見切れている範囲が大きい場合、実写系はInpainting用モデルを使うと体がより綺麗に生成されやすい傾向(二次絵系は未検証)。
ちなみに、あえて見切れた画像を用意して体を生成してもらう使い方もあります。

webui-user.batで利用できる引数について教えてくれ!

set COMMANDLINE_ARGS=--xformers --no-half-vae
とかそういうやつね。
まず公式の説明をどうぞ。利用可能な引数の一覧がある。
また、このとしあきwikiの下記ページも参考にしてほしい。

特に --xformers は大半の環境で利用でき、画像の生成速度向上と消費VRAMの大幅削減に役立つので、利用者が多い。定石と言ってもいい。
副作用として同一モデル・同一seedでも生成結果にわずかなぶれ幅が発生するようになる。
またPC環境によっては逆に速度低下を招く場合もあるが、一度試す価値はあるだろう。
他に人気があるのは

--no-half-vae黒画像発生率低減の効果が期待できる。
ただしVAEの処理をfp32で行うようになるので、VRAM使用量が少し増す
--disable-nan-check黒画像生成時の警告処理をスキップする。
いわゆるNaNエラーで止まっちゃうのを回避する。
黒画像自体が生成されなくなるわけではない。
しかし出現率が低いなら、これの利用をもって解決としてしまうのが良い
--opt-channelslastnVIDIA社のTensorコアを積んでるグラボではさらなる高速化を図れる。
具体的には16xxや20xx以上のグラボ
--ckpt-dir追加のモデルフォルダを指定する
(例)--ckpt-dir "D:\hogehoge\ahoaho"
--autolaunch1111起動時にwebuiのブラウザページも自動的に開く
--theme darkwebuiをダークテーマに変更する。闇属性のとしあきにおすすめ
http://127.0.0.1:7860/?__theme=dark のURLを利用する手もある

複数の引数を併用する時は、間を半角スペースで繋げること。

Quicksettingsに利用できる名前がわかんない

主なQuicksettingsを挙げる。
好きな順序で書いていい。順序も表示に反映される。

sd_model_checkpoint,モデルファイルの切替。デフォルトで書いてある
sd_vae,VAEファイルの切替
CLIP_stop_at_last_layers,Clip skipの値。主に監視用
(気づかない内に変わってるのを防ぐため)
eta_noise_seed_delta,ENSD(Eta noise seed delta)の値。
要するに31337の監視用
sd_hypernetwork,HNファイルの切替
sd_lora,LoRAファイルの切替
sd_hypernetwork_strengths, HNを適用する強さ。↓に転生した
extra_networks_default_multipliers,HNとLoRAを適用する強さ(共通)
grid_save,☑Always save all generated image grids
グリッド画像を自動保存するかどうか

名前は modules\shared.py の中身を覗いて探す。
拡張機能の分は
extensions\(拡張名)\scripts
extensions-builtin\(拡張名)\scripts とかにもあったりする。
調べるのが面倒くさかったらSettingsで変更してApply settingを押すと
すぐ下に「1 settings changed: hoge_hoge.」みたいな感じで出る。
こんな感じ→ 1 settings changed

開いた時のデフォルトの数値を変えたい!よく使う呪文を最初から表示したい!

フォルダにあるui-config.jsonをメモ帳で開いて、各項目の数値を書き換えることができます。

"txt2img/Prompt/value": ""
"txt2img/Negative prompt/value": ""
"img2img/Prompt/value": ""
"img2img/Negative prompt/value": ""
それぞれの""の中に呪文を記述すると表示されます。

その他参考になりそうな項目

その他参考になりそうな項目
基本的にtxt2imgのもの。img2imgの物はui-config.jsonの中を下にスクロールすればすぐに見つかるので省略。

デフォルト値
txt2img/Sampling method/valueサンプラーEuler a
txt2img/Sampling steps/valueステップ数20
txt2img/Width/step画像サイズのスライダー刻み幅8
txt2img/Height/step8
txt2img/Batch count/maximum画像生成の繰り返し回数の上限100
txt2img/Batch size/maximum画像の同時生成枚数の上限8
txt2img/CFG Scale/valueプロンプトの効かせ具合7.0
txt2img/Hires steps/valueHires.fixの2段階目のステップ数0
txt2img/Denoising strength/valueHires.fixのノイズ除去強さ0.7
txt2img/Denoising strength/step↑のスライダー刻み幅0.01
txt2img/Upscale by/valueHires.fixの拡大率2.0
img2img/Denoising strength/valueimg2imgのノイズ除去強さ0.75
customscript/postprocessing_upscale.py/extras/Resize/valueExtrasタブの拡大率4

※デフォルト値はこの記事の執筆時点(2023/2/22)のもの。
1111のアプデにより変更される可能性があり、実際に何度か変更されています。

画像生成の完了時に通知音とか出せないかな?

まず鳴らしたい音をmp3形式で用意する。
例: filefu1813724.mp3
次にそれをnotification.mp3にリネームして1111のフォルダに突っ込む。
反映には1111のReload UIか、もしくは1111の再起動が必要かもしんない。
でも音量調整がページ毎じゃなくてブラウザ丸ごとなんだよね…。つべとかの音量まで上下しちゃう。
だから何らかの編集ソフトを使って、mp3ファイルの音量自体を調整して保存し直すのが望ましい。
Web会議中にポーン♪って鳴らしたとしあきもいるからみんなも気をつけようね。

あとSettings → Actions → Request browser notifications
でWindows 右下の通知機能をONにできる。
解除したい時はブラウザのURL欄左端の(i)のとこからたぶん行けると思う。

グリッド画像の生成が時間かかるしいらない

以下2つの設定をすることで生成しないようにできる。

  • 保存無効
     タブ「Settings」→(左メニュー)「Saving images/grids」の「Always save all generated image grids」のチェックを外す。
  • 表示無効
     タブ「Settings」→(左メニュー)「User interface」の「Show grid in results for web」のチェックを外す。

1111更新によるUIの変化

アップデートしたらHistory/Image Browserが無くなった

拡張機能になりました。
使用したい場合は Extensions タブから導入してください。

手動で導入する場合

stable-diffusion-webui/extensions フォルダ内で下記のコマンドを実行すればインストールできます。

git clone https://github.com/yfszzx/stable-diffusion-webui-images-browser

モデルのハッシュ値が前と違くね?

2023年1月頃の更新で変更がありました。
前のハッシュ値は短くて、マージ技術の登場以降はよく被ってたしね。
古い画像に埋め込まれたハッシュ値から使用モデルを探りたい時は、そのハッシュ値でググると参考になるかも。

画像生成中にプレビューが出るようになった

プレビューをOFFにする方法

2023年1月頃の更新からそれがデフォルトになりました。
ただ画像生成速度が結構遅くなったり、VRAM消費量が増えたりといった影響もある様子。
環境や好みによってはOFFにする方がいいかも。
Settings → Live previews → Show live previews of the created image
Live previewsの設定次第では、プレビューをONにしつつ、生成速度やVRAM消費量への影響を少なく抑えることも可能かもしれない。

Hires.fixのUIがガラッと変わってる! 前の方が好きだった

Settings → Compatibility → For hires fix, use width/height sliders to ~
にチェックを入れると、前の仕組みに近くなる。
具体的には「最終サイズだけ指定するから、あとは1111君がテキトーにやってよ」という形になる。初期サイズと拡大率を考えなくていい。

更新したら画面上部にあったHNの強さスライダーが消えた

ああQuicksettingsのsd_hypernetwork_strengthのことか。奴さん死んだよ。
ていうかLoRAにも対応したことで名前が変わって、extra_networks_default_multiplierになった。

整理すると、次の3つの方法がある。好みに合わせて選んでほしい。

  • (方法A)🎴ボタンを使う。
  • (方法B)Quicksettingsを利用する。
    Settings → User interface → Quicksettingsに下記の3つを書き足す。好きな順序でOK。
    sd_hypernetwork, sd_lora, extra_networks_default_multiplier,
    画面上部の Apply settings を押し、次に Reload UI も押す。
  • (方法C)拡張機能: Kohya-ss Additional Networksを導入する。
    導入に成功すると、txt2imgやimg2imgの左下、Scriptの上辺りに Additional Networks のパネルが追加される。

LoRA(画像生成編)

保存したLoRAの使い方がわかんない

  1. \models\Lora にLoRAファイルを突っ込む。
    (最近の1111は起動時に該当フォルダを作る仕組みになってる。フォルダが無ければ、かなり古い1111を使ってるということ)
  2. 1111の🎴ボタンを押す。無かったら1111がかなり古いので、更新が必要。
  3. LoRAタブの中に目的のLoRAファイルがあるはず。見当たらなかったらRefreshを押してみる。
    クリックするとプロンプトに<lora:hogehoge:1>みたいな記述が挿入される。
  4. さらにプロンプトにそのLoRAのためのトリガーワードや推奨タグを書き足す。
    配布元のサイトがCivitaiにせよHugging Faceにせよ、大抵は説明が書いてあるのでちゃんと読もう。
    単純にファイル名丸ごと、もしくはファイル名の一部がトリガーワードになってる場合もある。
    サンプル画像があるならそれをPNG Infoにかけて参考にしよう。

LoRAの効果が全く出ない

  • <lora:hogehoge:1>の他にトリガーワードもちゃんと書き足した?
  • 別のモデルで試してみる。モデルとの相性があり得る。
  • プロンプトの((masterpiece)), (((best quality))), ((ultra-detailed)),とかが邪魔してる可能性があるので、断捨離してみる。
  • ネガティブの(worst quality:1.4), (low quality:1.4), (monochrome:1.1),とかが邪魔してる可能性があるので、断捨離してみる。

キャラLoRAやポーズLoRAなのに画風がめっちゃ影響を受けちゃう

  • <lora:hogehoge:1> の強弱を変更する。Ctrl+↑↓でもいいし、数値を書き換えてもいい。
    0.8とか0.6みたいに加減してみてください。配布元のページに推奨値が書いてあることもよくあるよ。
  • 画風まで学習しちゃってるLoRAだとか、そういう画風を想定して作成されたLoRAという可能性もあるので、ある程度諦めも肝心。
  • 強度(weight)のデフォルト値は下記の設定からできます。
    Settings → Extra Networks → Multiplier for extra networks
    1だと強すぎる場合が多いので少し弱めな数値を設定しておくと調整楽かも。

🎴これクソデカくない?

小さくする方法が3つあります。

  • Settings → Extra Networks → Default view for Extra Networks
    をthumbsに変更するとだいぶコンパクトになる。
  • Settings → Extra Networks にて、
    cardsまたはthumsのwidthとheightをピクセル単位で指定できる。
    ただし2023/3/25 19:02(commit 6b00d87)以降のバージョンの1111が必要。
  • user.cssを利用する。cards自体の表示を縮小したり、多数の学習ファイルをスクロール表示させることが可能。

    (としあき製) cardsを縮小、かつスクロール対応にするcss

    (としあき製) cardsを縮小、かつスクロール対応にするcss:
    まずstable-diffusion-webui に user.css を作成してください。
    空のテキストファイルを作成して、user.css にリネームすればOK。
    自作のuser.cssが既にある人は、そこに書き足す形でコピペして合体させましょう。

    .extra-network-cards .card{
        margin: 0.2em;
        width: 10em;
        height: 5em;
        background-size: auto 100%;
    }
    
    .extra-network-cards .card .actions{
        padding: 0.2em;
    }
    
    .extra-network-cards .card .actions .name{
        font-size: 1em;
        font-weight: bold;
        line-break: anywhere;
    }
    
    .extra-network-cards {
        overflow-y: auto;
        max-height: 360px;
    }

    width、height、max-height 等の値はお好みに合わせて調節してみてね。
    cssファイルの編集後、1111の画面下部にある「Reload UI」を押すことで反映されます。

🎴のサムネ画像ってどうやって変えるの?

下の表を参考に、自分で画像を置くのがオススメ。

種類場所学習ファイル名の例サムネ画像の命名規則
LoRA\models\Lorahogehoge.safetensorshogehoge.png
HN\models\hypernetworkshogehoge.pthogehoge.png
TI\embeddingshogehoge.pthogehoge.preview.png

1111起動中にサムネ画像を置いたり変更した場合は、🎴ボタンを押した後にRefreshボタンを押すと表示が更新されるよ。
なおサムネ画像はpng/jpg/webp形式に対応(2023/3/12以降)。

別の方法↓もあるが、この方法だと画像のメタデータが消去されてしまうので非推奨。

まず画像を生成し、画面右下のギャラリーから選択してオレンジ枠の状態にしておく。
次に🎴ボタンを押して目的の学習ファイルを探す。

  • (cardsの場合)学習ファイルの名前にカーソルを合わせると、replace previewの文字が出てくる。それをクリックすると画像が置き換わる。
  • (thumbsの場合)サムネ画像にカーソルを合わせると、左上に🖼マークが出てくる。それをクリックすると画像が置き換わる。

あとこれTipsなんですけど、自分で(Windowsのエクスプローラーで)フォルダを作って階層分けすると、1111の🎴表示もこんな感じになるから整理に便利だよってとしあきが教えてくれた。
LoRAのフォルダ分け


短縮URL生成

https://wikiwiki.jp/sd_toshiaki/-s/05ed8846