解説
さらに詳しく解説
NPU(AI処理専用プロセッサ)とは
NPU(Neural Processing Unit)は、AI・機械学習の計算に特化したプロセッサです。ニューラルネットワークの推論処理を効率的に実行し、CPUやGPUよりも低消費電力で高速な処理を実現します。
CPU・GPU・NPUの比較
| 項目 | CPU | GPU | NPU |
|---|---|---|---|
| 設計思想 | 汎用処理 | 並列グラフィック処理 | AI推論特化 |
| AI処理速度 | 遅い | 高速 | 最高速 |
| 消費電力 | 中 | 高 | 低 |
| 用途 | 汎用計算 | 学習・推論 | 推論 |
| 柔軟性 | 高 | 中 | 限定的 |
主要NPU製品
| 製品 | メーカー | 搭載デバイス |
|---|---|---|
| Neural Engine | Apple | iPhone、Mac |
| Tensor Core | Pixel | |
| NPU | Qualcomm | Snapdragon搭載デバイス |
| NPU | Intel | Core Ultra |
| NPU | AMD | Ryzen AI |
NPUの動作原理
NPUのアーキテクチャ:
├── MAC(積和演算)ユニット
│ └── 行列演算の高速実行
├── オンチップメモリ
│ └── データ移動を最小化
├── 量子化サポート
│ └── INT8/INT4演算
└── 専用命令セット
└── AI演算に[最適化](/glossary/optimization)活用事例
スマートフォン
- 顔認識・解除
- 写真の自動補正
- リアルタイム翻訳
- 音声アシスタント
PC
エッジAIとの関係
エッジAI実現の構成:
├── デバイス側
│ ├── NPU(推論処理)
│ ├── 軽量[モデル](/glossary/model)
│ └── ローカルデータ
└── メリット
├── 低遅延
├── プライバシー保護
├── オフライン動作
└── [クラウド](/glossary/cloud)コスト削減NPUの性能指標
| 指標 | 説明 |
|---|---|
| TOPS | 1秒あたりの演算回数(兆回) |
| 電力効率 | TOPS/W |
| メモリ帯域 | データ転送速度 |
| 対応精度 | FP16、INT8、INT4など |
