Nvidia以外のグラボに関して

Last-modified: 2023-03-25 (土) 00:15:41

このページについて

当wikiではNvidiaのグラボ推奨ですが、RADEONのグラボで試したい方向けへのページです。
RADEONグラボ購入検討中の方は以下のリンクを見て確実にできそうであれば購入しましょう。

RadeonでAUTOMATIC1111 stable-diffusion-webui

Radeonでもstable-diffusion-webuiが使えちまうんだ! (執筆日: 2023/2/18)
公式のインストールガイドはここ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs

Windows

DirectMLを使うフォーク版、テスト中らしい
動作未確認
人柱は君だ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs#windows
https://github.com/lshqqytiger/stable-diffusion-webui-directml

インストールするんだな!

基本の流れはローカル版導入と同じなのでそちらを参照
『4. AUTOMATIC1111版Stable Diffusion web UIをインストールする』でコマンドプロンプトを開いた画面まで進めて

git clone https://github.com/lshqqytiger/stable-diffusion-webui-directml && cd stable-diffusion-webui-directml && git submodule init && git submodule update

と入力するかコピペしてEnter。

VRAMが6GB程度の環境ではwebui-user.batのCOMMANDLINE_ARGSに --opt-sub-quad-attention --lowvram --disable-nan-check オプションを付けたほうが無難
RX6000などの最近のアーキテクチャ以外は --precision full --no-half をつけないとエラーが発生するので注意

Linux

ROCmを使って動かすやつDirectMLを使うものより高速に動く(はず)
公式のインストールガイドはここ
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs#running-natively
ネイティブに動かす方法とDocker上で動かす方法があるよ

簡単に説明しろや!(Ubuntu22.04でネイティブに動かす方法)

(注:RX6000シリーズは以下の手順で動くと思うけどRX5000、RX500他のシリーズはわからん!君の目でたしかみてみろ!)
とりあえずUbuntu22.04.1 LTSをインストールしてUbuntuのアップデートを終わらせる
その後端末(Ctrl+Alt+Tで起動できるよ)で以下のコマンドを実行

色々必要な物のインストール

sudo apt install wget git python3 python3-venv gnupg2 gawk curl

GPUにアクセスできるように権限を設定

sudo usermod -a -G render $LOGNAME
sudo usermod -a -G video $LOGNAME

RadeonドライバーインストーラースクリプトとROCmのインストール

wget https://repo.radeon.com/amdgpu-install/22.40/ubuntu/jammy/amdgpu-install_5.4.50401-1_all.deb
sudo apt install ./amdgpu-install_5.4.50401-1_all.deb
sudo apt update
sudo amdgpu-install --usecase=rocm

インストール完了後Ubuntuを再起動
stable-diffusion-webuiのリポジトリをクローン

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

お好みのモデルをダウンロードして

stable-diffusion-webui/models/Stable-diffusion

ディレクトリに入れる
起動させる

cd stable-diffusion-webui
bash webui.sh

あとは自動で依存関係のダウンロード、インストール、環境構築が行われて起動するはず
Screenshot from 2023-02-17 21-21-01.png
そしてブラウザで

http://127.0.0.1:7860/

を開いて存分にシコる
Screenshot from 2023-02-17 21-27-40.png

Ubuntu22.04.1 LTS RX6800で動作確認
GPUによってはwebui-user.shのCOMMANDLINE_ARGS=に--precision full --no-halfと書く必要があるかもしれない
(RX6000シリーズやRX500シリーズでは必要ないとの事)

最適化とかTIPSとかお得情報とか

起動オプション

--opt-sub-quad-attention

Sub-quadratic attention, a memory efficient Cross Attention layer optimization that can significantly reduce required memory, sometimes at a slight performance cost. Recommended if getting poor performance or failed generations with a hardware/software configuration that xformers doesn't work for. On macOS, this will also allow for generation of larger images.
DeepL翻訳:サブクアドラティックアテンションは、メモリ効率の良いクロスアテンションレイヤーの最適化で、必要なメモリを大幅に削減することができますが、時には若干のパフォーマンスコストを伴います。xformers が動作しないハードウェア/ソフトウェア構成で、パフォーマンスが低下したり、世代交代に失敗したりした場合にお勧めします。macOSでは、より大きな画像の生成も可能になります。

ラデでも使えるVRAM削減オプション
VRAM使用量が大きく削減されるが生成時間が伸びる

--upcast-sampling
なんか生成速度が上がるヤツ
opt-sub-quad-attentionと併用するといい感じ
公式のwikiのOptimizationsにのってないみたいだけどまあいいか!よろしくなあ!
詳細はこの辺

--xformers
xformersはなんかバグがあるらしくて使えない解決を待とう

SHARK

(執筆日: 2023/2/19)
SHARKui.jpg
MLIRで?中間表現?に変換していろんな環境で機械学習モデルを実行できるんですけど!みたいなソフトわからん…
とにかくいろんな環境でStableDiffusionできる凄いヤツ
公式のリポジトリはここロードマップはここ
開発中のソフトなんで未完成な部分も多いけど気軽にAIお絵描きを試せるよ
最近カスタムモデルにも対応した

Windows+RadeonでSHARK

AMD Software: Adrenalin Edition 23.2.1 以降のドライバが必要
公式リポジトリのリリースページからexeをダウンロードして(現在の安定版は539版
お好きなフォルダに置いて実行するだけ
勝手にセットアップが終わってブラウザでuiが開くはず
http://localhost:8080/
初回の生成にはファイルのダウンロードや変換で時間がかかります

RADEON用 参考リンク

徒労日記 とうとうRyzen + RADEONのAMD環境にもWindowsで動くStable Diffusionがきた

・過去にRadeonのグラボで導入したとしが参考にしたブログです。
https://dolls.tokyo/howto-amd-sd-win/

Stable Diffusion Native Isekai Too

・4chanのテンプレに貼られているもの
https://rentry.org/sd-nativeisekaitoo

Stable Diffusion AMD guide

・4chanのテンプレに貼られているもの
https://rentry.org/sdamd

AyyMD Stable Diffuse v1.4 for Wangblows 10 (by anon)

・4chanのテンプレに貼られているもの
https://rentry.org/ayymd-stable-diffustion-v1_4-guide

としあきTIPS

もっと見る

皆どんどん生成できてて羨ましい
俺はTI実行時のエラーで詰まってるよ(RADEON+ubuntu勢)
徐々にエラー解除していってるけどやっぱりRADEON使用だと障害は多いね・・・>>俺はTI実行時のエラーで詰まってるよ(RADEON+ubuntu勢)
>>徐々にエラー解除していってるけどやっぱりRADEON使用だと障害は多いね・・・
>TI学習したいならColab借りて学習はそっちでやったほうがいいんじゃないか?
せっかくGPU積んでるのでやっぱり使いたい・・・
という一念のもとエラーコードググったりソース見たりして頑張ってるよ
まあそっちのほうが早くね?はそれはそうだけどここまで来るともうなんか意地だね
でも諦めたらそっちに行きます・・・AMDでも画像生成はもう問題なくできるようになったんで正直そこは満足なんですが
やはりこう学習させたい欲・・・俺のrx6900xt君の16Gを余すことなく使わせたい・・・ぐぬぬやったぁ
フルアーマーサイバーパンクサイバネティック忍者ネコ娘がいい感じにできたぞちっちがう
わしはただ最も厚い装甲という呪文を追加下だけなんじゃ・・・としあきへ
AMDローカルマンより
TIの実行に成功しましたことをここに報告します
できるできるのだどこかの奇特な後続のAMDうぶんつローカルマンもいるかもしれないからTIする上での当たった壁と解決法を展開します(おま環かもだけど)
その1
・まずEmbeddingのプルダウンにptファイルが現れないんですけお!
→AUTOMATIC1111起動時の「TORCH_COMMAND=~~」の末尾に「--disable-safe-unpickle」を追加
→ptファイル読み込みできましたその2
・「RuntimeError: indices should be either on cpu or on the same device as the indexed tensor (cpu) 」とか出て実行できないんですけお!
→一旦「Ctrl+C」で停止
→cd (各としあき環境)/stable-diffusion-webui/repositories/stable-diffusion/ldm/models/diffusion
→ddpm.pyの行1030(コード内容「logvar_t = self.logvar[t].to(self.device)」)の直上に「t = t.to('cpu')」を追加
→pip uninstall torch torchvision functorch (←これやらないとddpm.py含め再コンパイルができない?と思います)
→TORCH_COMMAND='pip install torch torchvision ~~(長いので省略、末尾に--disable-safe-unpickle追加を忘れないように注意)
→TIできた

長文失礼でした
解決に一週間かかったけど甲斐はあったと信じたいねむいあっ
その2の補足
>→pip uninstall torch torchvision functorch (←これやらないとddpm.py含め再コンパイルができない?と思います)
上記はvenv環境内で実行してください
よろしくおねがいします

コメント

  • onnxruntime-directmlを使ってAMDのGPU(APU含む)での画像生成を行っています。huggingfaceに掲載されていないモデルを用いるときはdiffusersの変換スクリプトでckpt→diffusers→onnxの二段階の変換を行いますが、モデルによってはエラーが生じるようです。 -- tn? 2022-12-09 (金) 20:28:37
  • (続き)Missing key(s) in state_dict: (ry のエラーが生じるときは、convert_original_stable_diffusion_to_diffusers.pyにある text_model.load_state_dict(text_model_dict)をtext_model.load_state_dict(text_model_dict, strict=False)に変更すればよいようです。 -- tn? 2022-12-09 (金) 20:34:03
  • (続き)VAEを適用するには、ckptにvae(ptファイル)を事前にマージすればいいようです。 -- 2022-12-09 (金) 20:36:59
  • (続き)azuritecoin/OnnxDiffusersUIを使用していますが、Inpaintを行おうとするとエラーが生じます。こちらは./virtualenv/Lib/site-packages/diffusers/pipelines/stable-diffusion/pipeline_onnx_stable_diffusion_inpaint_legacy.py内のself.unet(...)[0]の()内をsample=np.array(latent_model_input, dtype=np.float32), timestep=np.array([t], dtype=np.float32), encoder_hidden_states=np.array(text_embeddings, dtype=np.float32)とそれぞれnp.float32に変換してやることで回避できました(txt2imgと共通のモデルを使用する場合はLegacyへのチェックが必須です)。AMDerの同志の方の参考となれば幸いです(終わり) -- tn? 2022-12-09 (金) 20:41:50
  • 追加です。MergeしたモデルをOnnxに変換しようとするとエラーが生じますが、convert_original_stable_diffusion_to_diffusers.pyのcheckpoint = checkpoint["state_dict"]を一時的にコメントアウトすればよいようです(おそらく、mergeの際モデル全体ではなくstate_dictのみを保存しているのかと思います)。通常のモデルと両方使えるようにするには、if "state_dict" in checkpoint: で条件分岐すればよいです。 -- tn? 2022-12-11 (日) 16:38:40
  • RDNA2/3環境はShark Stable DiffusionだとWindows+Vulkanでonnx(DirectML)の10倍早いみたいですね。ただ、WindowsUpdateでRadeonドライバの自動更新を停止させないとバージョン不一致で動かなくなるので注意が必要です。 -- 2022-12-23 (金) 00:45:04
  • NMKD Stable Diffusion GUI 1.8.0、ONNXで動かすとRX3600XTよりRyzen5 3600の方が速いw -- 2022-12-23 (金) 01:58:11
  • Windows11+RX570 8GBでShark Stable Diffusionを試したところ、512x512、50stepで1分切ってました。お試しならRyzen APU等でも行けると思います。メモリ64~128GB積んでれば高解像度出力も出来そうです。 https://www.youtube.com/watch?v=QpPgfC434C0 -- 2022-12-27 (火) 06:15:51
  • pytorch_directmlの230119版でstable diffusionに対応したらしいですが、どなたか動かせた方はいらっしゃいますか…?我が家のRenoir(4750G)では途中で止まってしまいます -- tn? 2023-01-22 (日) 09:12:30
  • スケジューラーをデフォルトから変えてみてください。手元の4750Gは動きました。 https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion#how-to-load-and-use-different-schedulers -- 2023-01-24 (火) 23:40:44
  • ありがとうございます!EulerDiscreteSchedulerに変更したところ動きました。動きさえすれば、ONNXより2割強速いかもです。DDIMも試してみましたが、こちらは動かないようですね… -- tn? 2023-01-25 (水) 18:49:35
  • Automatic1111も改造すれば動かせるっぽい https://gist.github.com/reid3333/541fab0eb29d4c9558de748ef91a8238 -- 2023-01-26 (木) 17:22:20
  • Automatic1111、動いたけどCPUでしか動作してないwどこか間違えたかな? -- 2023-01-29 (日) 19:43:36
  • 本家のdevices.pyが更新されてそのままのコード変更じゃだめになって、get_optimal_device()関数内でreturn torch_directml.device()しなきゃいけなくなった。 -- 2023-02-01 (水) 15:40:59
  • ありがとう。上の指南書のすぐ下にある、def get_optimal_device(): に指南書のtry: import torch_directml return torch_directml.device() except ImportError as e: return cpuと記述したけどGPU動かない どこ間違えてるんだろう -- 2023-02-02 (木) 19:32:46
  • もしやdef get_optimal_device_name():の return torch_directml.device()は削除しないとダメだったりします? -- 2023-02-02 (木) 19:43:43
  • 本家の修正に追従するようgist直しました。改造する関数がget_optimal_device()からget_optimal_device_name()に変わってます。最低限のt2iは動作確認できてますが全機能が動くかは分かりません。 -- 2023-02-02 (木) 20:30:19
  • RADEON RX6600XT 全くGPUが動作している気配なし どこが悪いんだろう? -- 2023-02-03 (金) 00:07:00
  • コマンドプロンプト開いて venv\Scripts\activate.bat 実行した後に python -c "import torch_directml; print(torch_directml.is_available())" を打ってみる。ImportErrorかModuleNotFoundError→torch_directmlがインストールされてないんで pip install torch_directml をやり直す。Falseと出る→なぜかDirectML自体が使えてないので試しにGPUドライバのバージョン上げてみる。Trueと出る→ソースの改造ミスってない限りGPUで動いてるはず。 -- 2023-02-03 (金) 10:18:52
  • ありがとう。試してみた。TrueなのにタスクマネージャのGPU使用率0% なんでやねんw -- 2023-02-03 (金) 18:05:46
  • 謎い では次はdevices.pyの return torch_directml.device() の真上の行にprint("success!")を追加、return "cpu" の真上の行にprint("error!!")を追加してコマンドプロンプトからwebui-user.batを実行。起動時にerror!!と出たら1111が使うvenvと↑のis_available()打った時に使ったvenvが違う。success!だったらもうお手上げ。どっちも出なかったら改造したソースと実際に実行してるソースが違う。 -- 2023-02-03 (金) 18:45:16
  • ありがとう。試してみたら起動しなくなったよ!白旗上げようかな?Traceback (most recent call last): File "E:\stable-diffusion-ui\stable-diffusion-webui\launch.py", line 361, in <module> start() File "E:\stable-diffusion-ui\stable-diffusion-webui\launch.py", line 352, in start import webui File "E:\stable-diffusion-ui\stable-diffusion-webui\webui.py", line 15, in <module> from modules import import_hook, errors, extra_networks, ui_extra_networks_checkpoints File "E:\stable-diffusion-ui\stable-diffusion-webui\modules\ui_extra_networks_checkpoints.py", line 6, in <module> from modules import shared, ui_extra_networks, sd_models File "E:\stable-diffusion-ui\stable-diffusion-webui\modules\shared.py", line 12, in <module> import modules.interrogate File "E:\stable-diffusion-ui\stable-diffusion-webui\modules\interrogate.py", line 15, in <module> from modules import devices, paths, shared, lowvram, modelloader, errors File "E:\stable-diffusion-ui\stable-diffusion-webui\modules\devices.py", line 47 print("success!")SyntaxError: expected 'except' or 'finally' block続行するには何かキーを押してください . . . -- 2023-02-03 (金) 22:18:39
  • インデントあっていないとかありませんか…? -- tn? 2023-02-03 (金) 22:38:39
  • ありがとう ちゃんとエラーって出たよ! Launching Web UI with arguments: --precision full --no-halferror!!error!!error!!error!!error!!Warning: caught exception 'Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver from http://www.nvidia.com/Download/index.aspx', memory monitor disabledNo module 'xformers'. Proceeding without it.error!! -- 2023-02-03 (金) 22:55:28
  • わざとインデント無くしたら同じ例外でました。Pythonはインデントに意味があるんで前後の行と揃えてください。でもこのエラー出たってことは動かそうとしてるソースはあってそう。 -- 2023-02-03 (金) 22:59:51
  • 入れ違った…たぶんあと一歩なんでがんばって。次は1. webui-user.batを編集。COMMANDLINE_ARGSに--skip-torch-cuda-testを追加し忘れてる。あとVENV_DIRが空になってることを確認。2. stable-diffusion-webui\venvフォルダがあることを再確認。3. コマンドプロンプトを開いてstable-diffusion-webuiフォルダに移動。4. venv\Scripts\activate.bat を実行。5. where pip を実行。stable-diffusion-webui\venv\Scripts\pip.exeの絶対パスが表示されるはず。 6. pip install torch_directml を実行。7. webui-user.bat を実行。 -- 2023-02-03 (金) 23:13:09
  • ありがとう やってみた。1:記述してあるのにスキップされない?5:実行後にパスが表示されない どこかで間違えてるんだな -- 2023-02-03 (金) 23:26:21
  • なんか良く分からないけどsuccess!と表示されてGPU動作するようになったよ!なんか釈然としない・・・ -- 2023-02-03 (金) 23:39:38
  • 1のときにwebui-user.batじゃなくてwebui.batを実行したとか…?それと、PowerShellだとwhereがwhere-objectコマンドレットのエイリアスになってるみたいなのでwhere.exeって拡張子まで指定しないとだめみたいです。それはともかく動作確認おめでとうございます -- tn? 2023-02-04 (土) 13:05:47
  • またGPU動作しなくなった(w 。もう意味が分らない。そして自分の環境だとGPU動作だとimg2imgとか使えないんでCPU動作の方が都合良さそう -- 2023-02-04 (土) 20:37:21
  • Radeon RX6800XTでSHARK Stable Diffusion導入したら2秒で1枚画像出るようになった! https://github.com/nod-ai/SHARK -- 2023-02-12 (日) 11:12:53
  • リンク先の通りに構築しようとしたら、一番最初でつまずいてる…python -m venv ./virtualenv と実行しようとしたらpythonを開くアプリを選択してくださいと出るだけで何も進まない。インストールする際に変数云々は通したはずなのに、なぜ...? -- 2023-02-14 (火) 20:05:02
  • https://koji-genba.hateblo.jp/entry/2023/01/28/200900 このページの通りに構築しても上手くいかないのですが、何かアドバイスいただけないでしょうか。 -- 2023-02-15 (水) 20:17:05
  • とっしー加筆ありがとう! テキストの整形どころか画像の添付や埋め込みまでバッチリだよ! -- 2023-02-18 (土) 01:02:38
  • ryzen7APUで動作はしたのですが、出力毎に2GB程VRAM(共有メモリ)でメモリリークしてる様で、数回毎に再起動しないと青画面で落ちてしまう -- 2023-02-22 (水) 10:27:43
  • SHARKでカスタムモデルがうまく認識してくれないなぁ。7th_anime_v1.1とBasil mixは safetensors ファイル入れるだけでうまくいったのに、、 -- 2023-02-24 (金) 20:08:02
  • Sharkは上手く動くモデルと動かないモデルがあるっぽい、OrangeMixとかは普通に動いたけどPrince's Dream Animeはプロンプトによっては全然違う(雰囲気が違う)物が出力されたりした。VAEどうやって適用すればいいか知ってる方居ませんか・・・? -- 2023-02-27 (月) 01:22:53
  • たぶんだけど、まだ機能そのものが実装されてないんじゃないかな。 -- 2023-02-27 (月) 17:54:20
  • https://koji-genba.hateblo.jp/entry/2023/01/28/200900 こちらの通り環境構築し、RadeonGPUの使用率も上がっていますが、出力結果が下記エラーでモデルを変えても同じ症状です。どなたか解消された方いませんでしょうか?エラーメッセージのオプションはBatファイルに入力済です。NansException(message)modules.devices.NansException: A tensor with all NaNs was produced in Unet. Use --disable-nan-check commandline argument to disable this check. -- 新参? 2023-02-27 (月) 22:34:16
  • 参考:https://youtu.be/E3aUPAXrV_8  (今日見たらgithubの該当ページは動画内容から更に更新されています)Direct-mlを使ったやり方みたいですが今のところwin10&Radeon環境でちゃんと動いています(※trainingはまだ試せていないです) -- 2023-02-28 (火) 20:13:42
  • webui-user.batの中に「set COMMANDLINE_ARGS= --autolaunch --theme dark --no-half-vae --no-half --precision full --opt-sub-quad-attention --lowvram --disable-nan-check 」ってのをいれてた、これで黒画面はあまりでなくなって、出ても連続が止まらない仕様にしてたはず、6600xtだから他で出来るかは分からないや -- 2023-03-10 (金) 02:22:28
  • ラデでもいけるもんだと思って7900XTX買っちゃったけど、まだROCmがRDNA3をサポートしていないのでbash webui.shでGPUエラーが出てしまう。SHARKなら行ける模様。 -- 2023-03-11 (土) 21:20:34
  • 1111互換のDirectMLを使うフォーク版をRX570 8GBで試してみました。webui-user.batを「COMMANDLINE_ARGS=--opt-sub-quad-attention --no-half --medvram」で600x800で出力OK(4分30秒)、モデルはBloodOrangeMix_half.ckptです。 iGPU+RX570環境でVRAMはお絵描き専用、WindowsのGPUで割り当てでPython.exeをRX570に割り当てて使用。 ※「c:\stable-diffusion-webui-directml\venv\Scripts\python.exe」と「C:\Users\ユーザー名\AppData\Local\Programs\Python\Python310\python.exe」 -- 2023-03-12 (日) 01:09:35
  • 環境を再構築してRX570 8GBで600x800の28stepsで「MidVRAMのBatch(x1)」と「LowVRAMのBatch(x4)を試してみました。」、結果は・・・「MidVRAM(x1):2分24秒=1枚当たり144秒」、「LowVRAM(x4):8分40秒、1枚当たり130秒」になりました。 -- 2023-03-12 (日) 07:57:17
  • MidVRAMのBatch(x1)というのはどこにあるんですか? RX6600XT、ML版で「--opt-sub-quad-attention --no-half --medvram --upcast-sampling」 のオプション付で512x512が45秒でした!速い! -- 2023-03-13 (月) 21:41:46
  • azuritecoin/OnnxDiffusersUIを使用して生成中、100%まで行ったのですが"UnicodeEncodeError: 'cp932' codec can't encode character '\u2014' in position 488: illegal multibyte sequence"とUnicodeのエラーが出て進めなくなりました。どなたか解決法ご存じでしょうか -- 2023-03-15 (水) 03:37:10
  • DirectML版Automatic1111WebUI Windows10、RX580 8gで使用
    COMMANDLINE_ARGS= --medvram --opt-sub-quad-attention --precision full --no-half --always-batch-cond-uncond --disable-nan-check --api --sub-quad-q-chunk-size 512 --sub-quad-kv-chunk-size 512 --sub-quad-chunk-threshold 70
    起動してすぐの512x512で30秒未満くらいです。
    現状--precision full --no-half --opt-sub-quad-attention、ファンの設定が必須で--no-halfと--upcast-samplingはどちらか一つ、黒画像はでるので--disable-nan-checkあるとお守り代わりにチャンク設定はお好みかつなくてもいいです。
    お勧めとしてはhallatoreさんのサンプラーでテスト版DPM++ 2M Karrasの使用、ステップ数を10、もしくは12~16ぐらいで使うと早くていい感じです。
    DirectML版Comfyも見かけたので今後が楽しみですね -- 2023-03-20 (月) 18:09:15
  • DirectML版Automatic1111WebUI Windows10、RX7900XT(VRAM:20GB)で構築しました。
    COMMANDLINE_ARGS= --skip-torch-cuda-test --disable-nan-check --opt-sub-quad-attention --precision full --no-half --no-half-vae --medvram
    512x512, 20Step, UniPC, AOM3A1B利用で概ね1枚4~5秒、4.5~5.8it/s。
    --medvramは有っても無くても生成速度に有意さはありませんでした。
    --opt-sub-quad-attentionはあると劇的に安定しました。ないと長時間稼働させるとVRAMの確保に頻繁に失敗する模様。
    --disable-nan-check --precision full --no-half --no-half-vae はモデルやVAEによっては行列演算でコケる事があるので多少の性能を犠牲にお守りで設定。
    なおバッチサイズを2以上にしても逆に遅くなるので、大量生成時は素直にバッチカウントを上げた方がよいようです。 -- 2023-03-24 (金) 01:09:21
  • M2 Macbook Air 24GBメモリの端末でも動かせますね. メインPCのryzen 7 5800X, RX6800XTよりかは体感5割~6割くらい? でもM2 Macの方はメインメモリとVRAMが共有なので、VRAMが足りなければOSのswapを使い始めるのでVRAM不足で落ちることは少なくなって安定するかも -- 2023-03-25 (土) 00:15:41