NPU

Last-modified: 2026-01-11 (日) 16:18:22

NPUとは?

Neural network Processing Unit。
AI PCなるジャンルの製品に積まれていることが多い。もともとはスマホやIoTデバイス向け。
CPUのAI「アクセラレーター」という位置付け。あくまでCPUが本体。

2025年現在のところ、グラボ(dGPU)を積みづらい小型ノートPCでもなんとかローカルでAI処理できるようにするためのハードウェアというポジション。
軽量なAIモデルの推論を省エネで高速に行うことに特化しており、モデルの学習など負荷の高いタスクはあまり考慮されていない
画像認識やノイズ除去*1はともかく、最新の重い画像生成モデルを試すにはちょっと力不足。
ソフトウェア側の対応が進むかは未知数だが、スマホでは必須のデバイスになりつつあるのでPCでももしかしたらもしかするかもしれない。AIアシスタントなんてネットワーク経由でいいじゃんという人は無関心だろうが…

VRAMも積まれていなけば演算性能も低い。ノート向けで一番しょぼいGeForce RTX 5050 Laptopでも並列演算性能は440TOPS(ただし、GeForceのTOPSはFP4スパース込みでの計算だと思われるのでINT8では200TOPS程度とみるのが妥当)あるが、Core Ultra 7 258VのNPUは47TOPSしかない。桁が違う。
Core Ultra 7 258Vは実はNPUよりiGPUのほうがAI処理性能も高い(64TOPS)。MicorosoftがCopilot+ PCの要件を「NPU単独で」40TOPS以上と定めたので仕方がない。MSはバッテリーの持ちを優先した。

なお、AI処理について演算性能にはTOPSが使われるようになったが、これは精度を落としてINT8整数演算を行った際の理論値。従来はFP32での浮動小数点演算性能を表すTFLOPSが使われてきた。


ややこしいが一体型のSoCで、CPU、NPU(とたいていiGPU)が組み込まれている。
パッケージ全体をCPUと呼ぶ人もいればNPUと呼ぶ人もいる。

IntelやAMDのCPUにNPUが搭載され始めたのは2020年代に入ってからだが、歴史的にはGeForceのTensorコアと同時期に実用化されている。
機能を限定した演算ユニットを積んで効率化というコンセプトはTensorコアと近い。
ただし、TensorコアはNPUと異なり省電力性はそれほど考慮されずパフォーマンス最大化に主眼が置かれている。

NPUはなぜ速いのか

NPUが速いのはAI処理だけです。
NPUはソフトウェアが対応していないと使われません。
また普通のプログラムの実行は、仮に動かせたとしてもCPUのほうが圧倒的に速いです。

ちまたではIntel Coreプロセッサの高効率コア(Eコア)をAtomだ水増しの詐欺だという人もいますが、NPUの中にはあれより遥かに低速で機能も少ない演算ユニットが大量に詰め込まれています(GPUと同じ)。
NPUのNであるニューラルネットワークでは、Excelの何十枚もシートのあるブックを開いて各シートの同じ行・列のセル同士を掛け算して新しい表を作れみたいな行列演算を大量にやるので、人海戦術が効くのです。
さらに昨今のAI処理ではメモリ使用量を絞るために演算精度を下げる量子化も当たり前に行われています。
NPUの性能を表すTOPSは基本的には「8ビット整数の演算能力」を表す数字なのですが、レトロゲーじゃあるまいし、0~255までしか数えられないんじゃ小学生のお小遣い帳も付けられないでしょう。でもAI推論の為に行う計算としては実用的な計算精度なのです。

関連ページ


*1 Stable Diffusion等の拡散モデルは学習時にノイズ除去の体裁を取っているだけで、肝心のノイズが拡散モデルに都合のいい=現実にはそうそう観測されないノイズなので通常のノイズ除去処理には使えない。