解説

さらに詳しく解説
Blackwell(ブラックウェル)は、NVIDIAが2024年に発表した次世代GPUアーキテクチャです。AI/機械学習ワークロードに最適化され、前世代Hopperから大幅な性能向上を実現しています。
Blackwellの概要
| 項目 | 仕様 |
|---|---|
| 発表 | 2024年3月(GTC 2024) |
| プロセス | TSMC 4NP |
| トランジスタ数 | 2,080億個 |
| 主要製品 | B100、B200、GB200 |
主要な技術革新
1. 第2世代Transformer Engine
- FP4(4ビット浮動小数点)対応
- 推論性能の大幅向上
- メモリ帯域の効率化
2. NVLink 5.0
3. 第5世代Tensor Core
- LLM学習で30倍の性能向上(H100比)
- 推論で25倍の性能向上
製品ラインナップ
| 製品 | 構成 | 主な用途 |
|---|---|---|
| B100 | 単体GPU | HPC、AI学習 |
| B200 | 高性能版 | 大規模LLM |
| GB200 | Grace CPU + 2xB200 | 推論特化 |
| GB200 NVL72 | 72GPU統合 | エクサスケールAI |
Hopperとの比較
| 指標 | Blackwell | Hopper |
|---|---|---|
| FP8 Tensor性能 | 20 PFLOPS | 4 PFLOPS |
| HBMメモリ | 192GB | 80GB |
| メモリ帯域 | 8TB/s | 3.35TB/s |
| TDP | 700W | 700W |
AI開発への影響
LLM学習
- 1兆パラメータモデルの学習が現実的に
- 学習時間の大幅短縮
- エネルギー効率の改善
推論
- リアルタイム推論の高速化
- コスト効率の向上
- より大きなモデルの展開
導入企業
市場への影響
Blackwellは、AIインフラの次世代標準として位置づけられ、AI開発競争において重要な役割を果たしています。需要が供給を大幅に上回り、納期が長期化している状況が続いています。
NVIDIAは、Blackwellにより「AIファクトリー」構想を推進し、AIをあらゆる産業に普及させることを目指しています。
