ControlNetとは
概要
- この技術のこと。プログラムの主な作者はlllyasviel 氏
https://github.com/lllyasviel/ControlNet - 上記のものをStable Diffusion web UI向けに拡張機能化したものが、
sd-webui-controlnet
制作者はMikubill氏 - img2imgの多機能追加版みたいな機能
- 5ちゃんねるでは「CN」と略して呼ばれることがある。
ControlNetのメリット
sd-webui-controlnet | img2img【参考】 |
---|---|
指定した要素をトレースできる | トレース対象を選べない |
-線画に対して超強力に着色可能 -画像から線画を抽出可能 これを利用して 画像→線画→再着色 で全く別の色にもできる -画像からポーズだけ抽出して別人や別衣装を適用可能 | -元画像の「色」を強く拾う -だから線画に対して着色する能力が弱い 雑でもいいから人間があらかじめ多少塗ってあげて、色の参考にさせる必要あり -ポーズや構図を維持しつつ別衣装を着させようとしても、元画像の色が強く残る |
よくある誤解
なるほどimg2imgの上位互換か
i2iでよくね?
違うんだよかーちゃん!
ガンキャノンとガンタンク
侍と忍者を比べるようなもんだぞ
色情報を拾うか拾わないかは用途次第で長所にも短所にもなる
Stable Diffusion web UI上で利用可能な拡張機能版としてはもう一つ
https://github.com/ThereforeGames/unprompted
通称unpromptedもあるのだが、利用者の数と出回っている情報量の都合上、一旦忘れていい。
何かしらの特徴や優位点もあるかもしれないので、もし奇特な人柱あきがいたら情報提供お待ちしております。
導入方法
動作環境
Stable Diffusion web UIの要件に、さらに多少のVRAM消費量増加が発生します。
- VRAM:4GBでも動作報告例あるよ。
- Stable Diffusion web UI本体・・・Ver.を最新版にしておくといいよ*1
- 某氏製の通称ワンタッチ版Stable Diffusion web UIを利用している人は要注意。
某氏のページで「追加パッチ_prettytable.bat」が配布されているので、まずは確認を。ワンタッチ版での詳しい手順
81 無念 Name としあき 23/02/16(木)00:23:26 ID:rEoZHy7U No.1067284380 そうだねx8
ワンタッチでControlNetインストール、実施までは
・追加パッチ_prettytable.bat をDL
・スタート_webui-user,dat と同じ所に配置
・ダブルクリック
・続行するには何かキーを押してください 消える
(以後は通常のStable Diffusion web UI と同じのはず)
・スタート_webui-user,dat 起動
・拡張機能 URLからインストール
拡張機能のリポジトリのURL に
https://github.com/Mikubill/sd-webui-controlnet
を入力してインストール (設定適応 UIの再読み込み必要かも)
txt2imgの下に ControlNetがあれば成功
拡張機能=Extensions
あとは↓の導入手順の3、4、5を行えばたぶんOK
導入方法
- 拡張機能sd-webui-controlnetを導入する
この部分は一般的な拡張機能の導入方法と同様Stable Diffusion web UIに拡張機能を入れるのは今回が初めて…という傾奇者向けの詳しい説明
- Stable Diffusion web UIを起動後にExtensionsのタブを開く
- Install from URLのタブを開く
- 上の欄に https://github.com/Mikubill/sd-webui-controlnet を入力して Install ボタンを押す
数秒立つとInstallボタンの下にDL完了を知らせるメッセージが出る
- Stable Diffusion web UIを終了する。
※コマンドプロンプトも含む。 - ControlNet用のプリプロセッサモデルをDLする。
プリプロセッサモデルは後述したものから、必要なものだけDL。Q. このファイルサイズの小さい「.ymal」ってのもDLする必要がありますか?
A. \extensions\sd-webui-controlnet\modelsにあらかじめ含まれているので、DLする必要はありません。Q. 1.1用の15種類の全てが、1.1の動作に必須ですか?
A. いいえ。自分が利用するモデルだけで十分です。
とはいえ「愛用するモデルが1つあればOK」という性質のものでもありません。
モデルによって効果や用途が大きく異なり、使い分けすることになるので、最初はいくつかDLしておくのがおすすめです。Q. 1.0用のモデルって今でも必要ですか?
A. 必須ではありません。1.0の頃から触っていた人には、そちらの方が好きな場合もあるかも? という程度です。- SDXL系列モデル用ControlNet 1.1専用モデル
https://huggingface.co/lllyasviel/sd_control_collection/tree/main - SD1.5系列モデル用ControlNet 1.1専用モデル(軽量fp16版)
https://huggingface.co/comfyanonymous/ControlNet-v1-1_fp16_safetensors/tree/main
732MBのモデル15種。 - SD1.5系列モデル用ControlNet 1.0時代のモデル(軽量fp16版)(ControlNet 1.1でも利用可能)
https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main
control~と名前が付いた723MBモデル8つ(合計5.4GB)
- SDXL系列モデル用ControlNet 1.1専用モデル
- DLしたControlNet用モデルを、下記のいずれかに配置する
- extensions\sd-webui-controlnet\models
- models\ControlNet
- Stable Diffusion web UIを起動すると
txt2imgやimg2imgの左下
Scripitの上に[ControlNet ◀]のパネルが追加されている
更新方法
- イリヤ(lllyasviel)ちゃんが精力的にアプデを続けており、機能追加や不具合修正が頻繁に行われている。
小まめに最新版に更新しよう。 - 使用前に最新版に更新しよう。質問前にも最新版に更新しよう。
- 更新の方法は一般的な拡張機能と同様なので、Extensions#拡張機能の更新方法のページを参照のこと。
動作テストという名のチュートリアル
(例題1) 棒人間→画像 (none + openpose)
- まずは上の棒人間画像を保存
- txt2imgの通常の範囲の設定を行う
モデル お好みで。ただしSD2.xベースのモデルやWD1.5には未対応。
良い結果を得られなかったら他のモデルで試してみようプロンプト 1girl, solo, smile, thumbs up, BREAK, red and yellow sunburst background, ネガティブ (worst quality:1.4), (low quality:1.4), (monochrome:1.1), 画像サイズ 512x512 ステップ数 15 (動作確認なので時間短縮のために) 枚数 合計6 (多少のガチャ要素があるので) - txt2imgの左下、scriptの上辺りに [ControlNet ◀] のパネルがある。
クリックして開き、棒人間画像をドラッグ&ドロップ - ControlNetのパラメータを設定していく
Enable ☑ON ControlNetの電源スイッチ的なもの。
ControlNetを利用する際は当然ONにする。逆に普段はOFFにしとこうPreprocessor none 前処理の内容。今回はもう棒人間を用意してあるから前処理は不要。
なのでnoneにする。
としあきが触ってない限りデフォルトでnoneだけどねModel control_v11p_sd15_openpose_fp16
もしくは、1.0用である「control_openpose-fp16」でもOK処理内容の種類。今回は棒人間用のもの - Generate だ!
元画像にあった棒人間のポーズや構図が反映されていれば成功だよ
困った時は
- 効果が全く出ない(ポーズや構図が全く反映されてなさそう)場合は、まずStable Diffusion web UIを最新版に更新してみてね
(例題2) 画像→線画→画像 (canny + canny)
左の画像はimg2img(ノイズ除去0.75)を使って金髪にしたもの。
i2iは元画像の色に従うので、暗い黒髪から明るい金髪への塗り直しとなると、ノイズ除去の値をこれくらい高くする必要がある。
そうなると元画像からの乖離も大きくなってしまう…というのは周知の通り。
人間がある程度金髪に塗ってから髪だけInpaintするとか、フォトショで範囲を指定しつつ色置換する等の手もあるけど…
今回はControlNetのcannyを試してみよっか。
- 黒髪ポニテの画像を保存
- txt2imgの普通の部分の設定
モデル お好みで。以下略 プロンプト 1girl, solo, upper body, smile, blonde hair, pony tail, ネガティブ (worst quality:1.4), (low quality:1.4), (monochrome:1.1), 画像サイズ 512x512 ステップ数 15 枚数 合計6 - [ControlNet ◀] のパネルを開き、黒髪ポニテの画像を突っ込む
- ControlNetのパラメータを設定していく
Enable ☑ON そらそうよ Preprocessor canny 前処理。これを利用して画像から線画にしてもらう Model control_v11p_sd15_canny_fp16
もしくは、1.0用である「control_canny-fp16」でもOK線画用のモデル - Generate だ!
結果を見ると、元画像の線がかなり維持されているはずだ(設定次第で調節できる)。
しかし元画像の色がほとんど失われているので「必ずしもi2iの強化版とは言えない」ことも分かるだろう。
(例題2.5) 編集範囲を限定する(img2imgタブからの利用)
例題2では線画を維持しつつ、金髪への塗り直しができた。でも背景および衣装の配色までも、元画像とは大きく異なる結果になってしまったよね。
そこで今回はtxt2imgタブではなく、img2imgタブからControlNetを利用してみよう。
InpaintやInpaint uploadを使うと、編集範囲の限定が可能になる。これにより、髪だけを金色に塗り直しつつ、それ以外の部分を保持することができる。
前回同様にControlNetのcannyを用いるから、髪の線画ももちろん維持できるぞ。
さて今回使うimg2imgタブだけれど、編集範囲の指定はInpaintとInpaint uploadのどちらでも可能。
前者は手動でブラシ塗りしてマスクを作成。後者は(あらかじめ画像編集ソフトなどで作成したグレースケールの)画像ファイルを読み込んでマスクとして利用する…という違いがある。
例えば瞳やリボンのような狭い範囲なら、手塗りのマスクでも十分だから、Inpaintの方が手っ取り早いんだけど…
今回は黒髪を金髪に塗り直したい。範囲が広い上にかなり複雑な形状なので、筆者が画像編集ソフトを使ってマスク画像を作成して用意した。これをInpaint uploadで読み込ませて利用しよう。
- img2img(Inpaint upload)の設定
ここで2つ注意点がある。
モデル お好みで。以下略 プロンプト 1girl, solo, upper body, smile, blonde hair, pony tail, ネガティブ (worst quality:1.4), (low quality:1.4), (monochrome:1.1), 画像(上段) 画像(下段) Mask blur 1 画像サイズ 512x512 ステップ数 15 枚数 合計6 Denoising strength 0.8
Mask blurは、マスクの境界線を指定ピクセル分だけ「ぼかす」設定だ。マスク箇所とそれ以外を上手く馴染ませる効果を狙って調整する。デフォルト値は4。大抵の場合は4~10くらいでいいだろう。ただし今回は髪のマスクにとても細い部分も含まれているので、0~2くらいの小さめの値が望ましいように思う(個人の感想です)。
Denoising strengthは、元画像にどの程度の変化を加えるかの設定。今回は黒髪から金髪に変化させたいのだが、0.6や0.7程度ではせいぜい茶髪くらいまでしか変化しない。という理由から0.8にしてある。1.0みたいな大胆な値でも一応いけるっぽい。 - [ControlNet ◀] のパネルを開き、黒髪ポニテの画像を突っ込む
- ControlNetのパラメータを設定していく。内容は例題2とまるっきり同じ
Enable ☑ON そらそうよ Preprocessor canny 前処理。これを利用して画像から線画にしてもらう Model control_v11p_sd15_canny_fp16
もしくは、1.0用である「control_canny-fp16」でもOK線画用のモデル - Generate だ!
使い方
パラメータ
(2023/12/11)ControlNet v1.1.422に基づく
項目 | 解説 |
📝(Open new canvas) | 既存の画像ではなく自分の手描きで始める場合に利用するボタン。手書き用のキャンバスの設定パネルを表示する |
New Canvas Width New Canvas Height | 手描き用のキャンバスを新規作成する際の幅と高さ。 画像ファイルを読み込ませて利用する場合には影響しない |
Create New Canvas | 空(白背景)のキャンバスを作成する |
📷(Enable webcam) | Webカメラを有効にする |
⇄(Mirror webcam) | Webカメラの画像を左右反転させる |
⤴(Send dimensions to stable diffusion) | 画像を読み込ませた状態でこのボタンを押すと、画像の幅と高さが、txt2imgやimg2imgのWidthとHeightにコピペされる |
Enable | ControlNet自体の有効/無効化 |
Low VRAM | グラボのVRAMが少ない、あるいは大きな画像を出したいのにVRAMが不足するという場合にONにする。 デメリットとして画像の生成速度が遅くなる。一度に口に入り切らないから少しずつ齧る…みたいなイメージ |
Pixel Perfect | ONにすると、Preprocessor Resolutionの値が自動的に調節されるようになる。なのでPreprocessor Resolutionの項目は非表示になる |
Allow Preview | ONにすると、Preporcessor Previewの表示枠が出現する |
💥 | Preporcessor Previewの表示を更新する |
Control Weight | README.md参照 |
Starting Control Step | |
Ending Control Step | |
Control Mode | README.mdに詳しい説明がある |
・Balanced | バランス型。デフォルトはこれ |
・My prompt is more important | プロンプト重視 |
・ControlNet is more important | 元画像重視。1.0ではGuess Modeという名称だった |
Resize Mode | 拡大縮小の種類 |
・Just Resize | アスペクト比(縦横比)を維持せずに拡大・縮小する |
・Crop and Resize | アスペクト比を維持して拡大/縮小する。はみ出る部分はトリミング(切り取り)される |
・Resize and Fill | アスペクト比を維持して拡大/縮小する。足りない領域は描き足される |
[Loopback] Automatically send generated images to this ControlNet unit | |
Presets | よく使う設定の組み合わせをプリセットとして保存/読み込みできる |
他に、Preprocessorをnone以外に切り替えることで出現するパラメータもある。
それらを利用すると、元画像から中間画像を変換・抽出する前処理の解像度や加減を調節できる。
(例えばcannyで線画を抽出する強弱など)
プリプロセッサの種類と用途
種類と用途の早見表
プリプロセッサ名 | 抽出対象 | 使用例 | 用途 |
none | ー | 「前処理いらないよ」という指示。 手持ちの線画や棒人間画像から開始する時はこれ | |
binary | scribbleの閾値付きバージョン。グレースケール系の線画に着色させたい場合とかに使う。 閾値を0 or 255に設定すると、大津の手法使って自動でいい感じの閾値が設定される。 | ||
canny | 線画 エッジ検出 | ■ | ・二次絵の書き換えに全力出せる ・canny法と呼ばれるエッジ検出法を使う |
clip_vison | |||
color | |||
depth | 深度情報 奥行き | ■ | ・主に実写を使ってやるのに使う。 ・ズーム写真(POV)のポーズ流用が得意 |
depth_leres | |||
hed | 輪郭 | ■ | cannyより大雑把な輪郭。ソフトエッジ |
mlsd | 直線 | 家具とか家とかのまっすぐなやつを拾う用 | |
normal_map | 法線情報*2 | ■ | 3D人形とかをベースにするときにつよい |
openpose | ポーズ | 棒人形。みんな知ってるよね | |
openpose_hand | ポーズ(手を含む) | 棒人形+手 | |
pidinet | 輪郭 | hedと何が違うのかよく分からん | |
reference only | 全体的な特徴 | ■ | ・画像のキャラや画風と特徴等を、セットで抽出する。手持ち画像のキャラを登場させることができる(学習不要なので便利)。 ・コピー機学習で差分画像を作るのに役立つ。 ・簡易的な学習データ相当としても使える |
scribble | ラフ絵 | ■ | ラフ絵をなんとかする。マウスで丸書いてちょんで顔になる |
segmentation | 入力画像を領域分けする。モデルはcontrolnet_seg。実写映像で構図を決めて差し替えに使える。二次絵だとイマイチ読んでくれない。 |
用途で選ぶプリプロセッサ
・簡単にポーズさせたいならopenpose
・塗り絵や色変え表情変えならcanny
・3Dモデルを使ってポーズさせてるならnormal_map
・構図を維持したまま服装や背景を変えたい場合はsegmentation
・線画に色を付けたいならbinary(ModelはScribbleを指定)
補足
- PreprocessorとModelは基本的にセット、ペアとして考えよう。
例えばPreprocessorをcannyにするなら、モデルにはcontrol_canny-fp16を選ぶ。 - 前処理(postprocess)をすっ飛ばしたい場合、つまり手元にある線画や棒人間の画像を読み込ませて実行する場合は、preprocessorをnoneにして、Modelだけを選択する。
メモや注意点
- モデルとの相性が存在する。というかSD2.x系列のモデル…具体的にはSD2.1やWD1.5は、モデルの作りが大きく異なるため利用できない。
- 元画像の影響を強く受けすぎてしまう場合は、Weightの値を思い切って0.5や0.3などに下げてみる。
- 線画や棒人間の画像を保存する方法はいくつかある。
- Stable Diffusion web UI画面右のギャラリーから手動で保存する。
- C:\Users\(ユーザー名)\AppData\Local\Temp を覗く。ショトカを作っておくのも手。
ただしこのフォルダは定期的に掃除すべき場所の一つなので、Windowsか何かにいつ掃除されてもおかしくない。 - Settings → ControlNet → Allow detectmap auto saving
をONにして、ページ上部にある Apply setting を押す。
保存場所はDirectory for detected maps auto savingで指定する。↓の画像参照
Multi-ControlNet
- なにそれ?
- どうやって有効化するの?
https://github.com/Mikubill/sd-webui-controlnet#multi-controlnet
m2m
movie2movie。動画ファイルを読み込ませて、それをベースにAI絵の動画ファイル(.gif形式)を作成する機能。
今のところフレーム間の連続性を補正する機能は無い。単純にバッチ処理で次々とControlNetに送って、最後にgifファイルにまとめている。
seedを任意の値で固定すると、seed=-1 よりはだいぶ良好な結果を得られる(チラつき低減)。
img2imgタブからも利用できるが、ベースとして指定できる画像は1枚だけ。将来的には1フレームずつ自動で送って元絵にできるかもしれない。
有効化する方法
- まずMikubill版ControlNet拡張機能を最新版にしておく
誘導→Extensions#拡張機能の更新方法 - Settings → ControlNet → Allow other script to control this extension
をONにして、ページ上部にある Apply setting を押す
注意
動画って基本的にすげー枚数を生成することになる
30fps 10秒の動画ですら300枚だぞ
だから最初は2~3秒くらいの動画にしとけ
あとtxt2imgのWidthとHeightも小さめのサイズにしとけ
16:9なら320x180とか640x360とかね
使用方法
- txt2imgのControlNetのパネルを開き、いつも通りEnableをONにする。
画像は読み込ませなくていい。
PreprocessorとModelの指定は必要。
普通の実写動画だったらopenpose+openposeとか、depth+depthとか?
blenderとかで用意した棒人間動画だったらnone+openposeとか? - Scriptのプルダウンリストからcontrolnet m2mを選択する。
すると[ControlNet-M2M ◀]のパネルが出現する。 - ControlNet-M2Mのパネルを開き、動画ファイルを読み込ませる。
対応しているファイル形式はmp4、avi、webm等。
クリックすればWindowsのエクスプローラーが起動するから、詳細はそこで確認してね。 - Durationのスライダーの作用はよくわかってない…
- いつも通り Generate で生成開始
動画内の全フレームに対して1枚ずつ自動的にControlNet処理が施されていく
それが終わるととりあえずStable Diffusion web UIちゃんから完了通知が出るけど
実際にはその後animation.gifの作成まで自動で行われる
この時に同名のファイル名が既に存在していると自動的に上書きされてしまうので注意してほしい
gifファイルはファイルサイズが大きい
息を吸って吐くようにスレへの添付ファイルサイズ上限(8MB)を越えてくる
なのでスレに貼るためには圧縮品質を調整しつつmp4かwebm辺りの動画形式に変換することになるだろう
よくある質問
棒人間の対応部位がよくわからない
こちらの記事内にある画像がわかりやすいのでオススメ
機械の目が見たセカイ -コンピュータビジョンがつくるミライ(47) 人物の姿勢推定(1) – OpenPose | TECH+(テックプラス)
(画像の転載はしません)
バッチ処理機能はありませんか?
1.1にて実装された。
https://github.com/Mikubill/sd-webui-controlnet#batch-mode
俺のControlNetには○○の機能が見当たらないんだけど…
- ControlNetの拡張機能を最新版に更新せい
- ControlNetの拡張機能を最新版に更新せい
便利な物
(拡張機能) OpenPose Editor
https://github.com/fkunn1326/openpose-editor.git
Stable Diffusion web UI上で2Dの棒人間から画像を作成できる拡張機能。
人数の追加や、ControlNet拡張機能へ画像を送ることも可能。
https://twitter.com/fkunn1326/status/1627173198751211520
(拡張機能) 3D Openpose Editor
https://github.com/nonnonstop/sd-webui-3d-open-pose-editor
Stable Diffusion web UI上で3Dの棒人間から画像を作成できる拡張機能。
Openposeだけでなく手足のDepth/Normal/Cannyマップの出力にも対応。
(拡張機能) Posex
https://github.com/hnmr293/posex
Stable Diffusion web UI上で3Dの棒人間から画像を作成できる拡張機能。
Openpose/Depth/Canny/Landmark用Blenderモデル
Blenderで3D人形を操作して画像を作成できる全部入りモデル。
https://toyxyz.gumroad.com/l/ciojz
ブラウザ上でデッサン人形を動かしてスクショ撮れるwebサイト
176 無念 Name としあき 23/02/14(火)21:22:20 ID:73xlNJSY No.1066899251 del そうだねx2
https://webapp.magicposer.com/
このサイトでポーズ作ったらスクショしてwebuiにコピペして
さかなー
(としあき製) 棒人間ツール
238 無念 Name としあき 23/02/23(木)00:43:57 ID:FacyQ2ik No.1069701497 del そうだねx7
>この棒人間さん作るのって何かのツールで出力するんです?
色々あるみたいだけど
この機会にちょっとだけアプデしたのを上げる
https://thup.work/miniup/?mode=dl&id=14203
- 棒人間のポーズをマウスで編集して画像保存できる簡易ツール
棒人間の数を追加することも可能 - exeファイルなのでDL時にブラウザに警告されたり、初回起動時Windowsに警告される場合がある
(おめー覚悟できてんのか? セキュリティリスクを承知の上でDL/実行しようとしてんのか? ってこと) - 使用前に同梱のreadmeをよく読んでね
4 無念 Name としあき 23/02/20(月)16:33:29 ID:JY/WkoZk No.1068872128 del そうだねx15
たておつシンプル棒人間ツール
ポーズデータが*.jsonだと開くまでどんなポーズかわからないので
pngにポーズを埋め込んで保存/読み込みできるようにしました
他はウィンドウ透明化ON/OFFの実装等々redme参照
https://thup.work/miniup/?mode=dl&id=14167
9 無念 Name としあき 23/02/19(日)09:34:02 ID:3FNBM1TA No.1068371736 del そうだねx11
たておつ
昨晩上げたシンプル棒人間ツール
なんか殺風景だなと思ったら間違ってメニュー消してたので上げ直し
https://thup.work/miniup/?mode=dl&id=14158
324 無念 Name としあき 23/02/18(土)20:42:03 ID:Lc4yjcR. No.1068200555 del そうだねx8
以前上げたシンプルな棒人間ツールの関節の丸が大きいのが気になったのでアプデ
他地味に色々操作追加
改造再配布自由
(としあき製) セグメント画像作成ツール
※あぷろだ寿命によるリンク切れ
507 無念 Name としあき 23/02/23(木)21:54:09 ID:gENFNIAM No.1070010214 del そうだねx9
https://dec.2chan.net/up2/src/fu1950923.zip
としちゃんがくれたseg用画像描画ツールのgui改造してみたよ
chatgptちゃんに聞きながらペンサイズ変更GUIと現在選択色と名表示を入れてみた
あと画像読み込みしたら勝手にウインドウサイズ変えるとか(768pxまで)
公開してくれた前二人のとしあきに感謝
276 無念 Name としあき 23/02/18(土)14:32:47 ID:rd4xlw9M No.1068074769 del そうだねx8
としがこないだseg用の画像を書くツールの改造
自由に改造していいとか言ってた気がするのでペンタブに対応させた
ペンタブ検出の関係で必要なライブラリ増えたけどれあどめつけたから導入は簡単なはず
説明に書き忘れたけどctrl+altキーを押しながら左右移動でペン先サイズ変更できる
もっと使いやすいUIにやろうと思えばできる気はするけど
GUI組むの本当に苦手なので誰か続きは任せた
7 無念 Name としあき 23/02/17(金)16:43:08 ID:VCEU5gRM No.1067769956 del そうだねx20
GPTちゃんにいろいろ聞いてセグメントの画像を描けるような簡易ペイント的なの作ったよ
一応ちゃんとセグメントの指定どおりに描いてくれたのは確認
改造配布などご自由に
(としあき製) MMD版ポーズ人形
fu1959929.zip あぷろだ寿命によるリンク切れ
36無念Nameとしあき23/02/18(土)22:51:29 ID:QBc.o.MoNo.1068256309
MMDポーズ人形のスタンダードの方に材質モーフで輪郭線だけにするのと
セグメンテーションのpersonの色にする機能追加
MMMだと静止画出力時に背景透過できるんで合成とか便利かも
124 無念 Name としあき 23/02/18(土)12:48:54 ID:fLqgB9d6 No.1068044809 del そうだねx4
デプスマップのMME配布してくれてる方がいたのでポーズ人形更新
深度は手前の白から最奥の黒の範囲をスライダーで適切に設定しないと綺麗なグラデが出ないので注意
30 無念 Name としあき 23/02/18(土)12:05:18 ID:fLqgB9d6 No.1068032007 del そうだねx12
VRoidベースにしたMMDのポーズ人形作った
普通の奴と法線マップに対応してる物2つあって
法線は背景色を(255,128,128)にして出力すればプリプロセッサ通さずに法線マップとして使える